HyperAI超神経
Back to Headlines

AIが不確実性に対処する新たなフレームワークを開発——コンピュータ科学者に聞く

8日前

AIが不確実性に直面するとき、人間の判断とどう異なるのか。 USCバイテビ工学部の助教授ウィリー・ネイサンガー氏は、現在のAI大規模言語モデル(LLM)が不確実性に対処する能力に課題があると指摘している。彼は、人間の知識や判断力がAIの意思決定を補完する必要があると強調する。ネイサンガー氏は、LLMを用いた意思決定の枠組みを開発し、人間の価値観や判断をAIに組み込むことで、より信頼性の高い結果を導き出せるようにしようと研究している。 現在のAIは、データが不完全な状況でも判断を下すが、人間のように「自信の度合い」や「知識の限界」を明確に示すことができない。このため、不確実性が伴う場面では誤った判断を下す可能性がある。ネイサンガー氏の研究では、LLMが不確実性を数値化し、信頼性のある予測を示せるようにする方法を開発した。例えば、作物の収穫量や株価、イベントの日付、倉庫の出荷量など、不確実な変数をモデルに組み込み、確率的な評価を生成する仕組みを構築している。 この研究は、ビジネスや医療、個人の意思決定など、さまざまな分野での応用が期待されている。例えば、医療では診断や治療計画の補助、ビジネスでは戦略立案の精度向上に役立つ可能性がある。また、人間の価値観や制約を数式に組み込むことで、AIが単に数学的に最適な選択をしても、実際には不適切な結果になるリスクを減らすことが可能となる。 今後の研究では、このフレームワークをより広い分野に適用し、人間がAIの判断を理解し、検証できるようにする取り組みが進められる。ネイサンガー氏は、AIが人間の価値観に合致した判断ができるよう、透明性を高めるインターフェースの開発にも注力している。

Related Links