17日前

視覚的対応に基づく説明は、AIのロバスト性および人間-AIチームの精度を向上させる

Giang Nguyen, Mohammad Reza Taesiri, Anh Nguyen
視覚的対応に基づく説明は、AIのロバスト性および人間-AIチームの精度を向上させる
要約

人工知能(AI)の予測を説明することは、人間が最終的な意思決定を行う多くの高リスクな応用分野において、ますます重要かつ不可欠な課題となっている。本研究では、照合画像(query image)と例示画像(exemplars)の視覚的対応関係を活用し、予測の前に説明を行う(従来の後処理型説明とは異なり)新しい自己説明型画像分類モデルの2つのアーキテクチャを提案する。これらのモデルは、分布外(out-of-distribution, OOD)データセットにおいて、ResNet-50やk近傍法(kNN)分類器と比較して1~4ポイントの性能向上を示す一方で、分布内(in-distribution)テストでは1~2ポイント程度のわずかな性能低下を示す。ImageNetおよびCUBデータセットを対象とした大規模な人間実験の結果、本研究で提示する対応関係に基づく説明は、kNNによる説明よりもユーザーにとってより有用であることが明らかになった。また、他のすべての比較手法と比べて、本研究の説明はAIの誤った判断をユーザーがより正確に拒否するのを支援する効果を示した。さらに本研究では、初めてImageNetおよびCUBの画像分類タスクにおいて、AIと人間が協働する際に、AI単独または人間単独の性能を上回る補完的(complementary)な人間-AIチームの精度を達成可能であることを示した。