AIの信頼性評価に専門家だけでは不十分、パネルによる多様な検証が不可欠
人工知能(AI)の信頼性を評価するためには、専門家の個別評価だけでなく、多様な背景を持つ人々によるパネルによる共同判断が不可欠だと、浙江大学工業技術大学の程聡(Cheng Cheng)氏らの共同研究者グループが指摘している。2025年11月18日付の『ネイチャー』誌に掲載された論説で、彼らは、Vinay Chaudhri氏が提唱する「専門家インタビュー(Sunsteinテスト)」によるAI理解度の評価手法は技術的実力の検証には有効だが、少数のエリート専門家がAIの「信頼性」を決める権限を持つ状況を生み出し、社会的不平等を助長するリスクがあると警鐘を鳴らした。 この点について、カティ・オニールの著作で指摘されたように、AIの設計と運用の目的は、少数の開発者や権力者に依存しており、その影響が社会全体に広がる可能性がある。したがって、AIの信頼性を判断する際には、専門家の意見に頼るのではなく、社会的・文化的・職業的多様性を持つパネルによる共同評価が求められる。 研究者たちは、AIの影響が社会全体に及ぶ以上、評価プロセスにも広範な関与が不可欠だと強調。単に技術的正確性を測るのではなく、AIが社会的価値や倫理、公平性にどう貢献するかを、多様な視点から検証する仕組みの構築が急務であると結論づけている。 この主張は、AIが社会に与える影響が極めて広範であることを踏まえ、技術の進展に伴い、評価の枠組みもより民主的で包括的なものへと進化させる必要があることを示している。
