【コンピュータサイエンス】科学と工学におけるAIが直面する課題


画像ソース:Thinkhubstudio / Getty

人工知能(AI)が提供するエキサイティングな可能性の1つは、科学および工学分野が直面している最も困難で重要な問題のいくつかを解決する可能性です。AIと科学は互いに非常によく補完し合っており、前者はデータのパターンを探し、後者はそれらのパターンを生み出す基本的な原理を発見することに専念しています。

生物学の分野では、 Deep MindのAlpha FoldなどのAIモデルは、タンパク質の構造を発見してカタログ化する機会を提供し、専門家が無数の新薬や新薬のロックを解除できるようにします。

物理学の分野ではAIモデルは、実験中の将来のプラズマ状態のリアルタイム予測や機器のキャリブレーションの改善など、核融合を実現する上での重要な課題を処理するための最良の候補として浮上しています。

医学の分野では、AIモデルは、他の既知の方法よりもはるかに早く認知症やアルツハイマー病などの状態を診断する可能性がある、医用画像および診断のための優れたツールでもあります。

材料科学の分野では、AIモデルは、新しい材料の特性を予測し、材料を合成する新しい方法を発見し、極限状態で材料がどのように機能するかをモデル化するのに非常に効果的です。

これらの主要な深い技術革新は、世界を変える可能性を秘めています。ただし、これらの目標を達成するために、データサイエンティストと機械学習エンジニアは、モデルとインフラストラクチャが必要な変更を確実に達成できるようにするために、いくつかの大きな課題を抱えています。

科学的方法の重要な部分は、実験の作業と結果の両方を解釈し、それを説明できることです。これは、他のチームが実験を繰り返して結果を検証できるようにするために不可欠です。また、非専門家や一般の人々が結果の性質と可能性を理解することもできます。実験を簡単に解釈または説明できない場合は、発見をさらにテストし、それを普及させて商品化する際に大きな問題が発生する可能性があります。

ニューラルネットワークに基づくAIモデルに関しては、推論も実験として扱う必要があります。モデルが観察したパターンに基づいて技術的に推論を生成している場合でも、問題の出力で予想できるある程度のランダム性と分散が存在することがよくあります。つまり、モデルの推論を理解するには、モデルの中間ステップとロジックを理解する能力が必要です。

科学的方法の中心的な原則は、実験の結果を再現する能力です。実験を再現する能力により、科学者は結果が改ざんやまぐれではないこと、そして現象の推定上の説明が正確であることを確認することができます。これは、実験の結果を「再確認」する方法を提供し、より広い学界と一般の人々が実験の正確さに自信を持つことができるようにします。

ただし、AIにはこの点で大きな問題があります。モデルのコードと構造の微調整、供給されるトレーニングデータのわずかな違い、または展開されるインフラストラクチャの違いにより、モデルが著しく異なる出力を生成する可能性があります。これにより、モデルの結果に自信を持つことが難しくなる可能性があります。

ただし、再現性の問題により、モデルのスケールアップが非常に困難になる可能性もあります。モデルのコード、インフラストラクチャ、または入力に柔軟性がない場合、モデルを作成した研究環境の外に展開することは非常に困難です。これは、イノベーションをラボから業界や社会全体に移行する上で大きな問題です。

次の問題は、実存的ではない問題、つまりフィールドの初期の性質です。科学と工学におけるAIの活用に関する論文は継続的に公開されていますが、それらの多くは依然として非常に理論的であり、ラボでの開発を実際のユースケースに変換することにあまり関心がありません。

最終的に、これは通過する問題ですが、理論から運用および実装の懸念への考え方のシフトは、このドメインでAIの可能性を実現し、説明可能性や再現性などの主要な課題に対処するための鍵となります。結局、AIは、ラボを超えてスケ​​ーリングするという問題を真剣に受け止めれば、科学と工学において大きな進歩を遂げるのに役立つちます。

(via VB

Last Updated on 2022年7月26日 by Editor

Visited 4 times, 1 visit(s) today

※このサイトの記事には「噂」や「疑惑」など、不確定な情報が含まれています。ご了承ください。(管理人)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です