AIがオンライン調査の信頼性を脅かす 高度なAIエージェントが検出回避を実現
人工知能(AI)の進化が、社会科学研究で広く使われてきたオンライン調査の信頼性を脅かしている。調査では、大規模なデータ収集のために、人々の行動や意見をゲームやアンケートで得る手法が活用されてきたが、近年、高度なAIエージェントがその検出手法を巧みに回避する事例が相次いでいる。コロンビア大学の政治学者ヤミル・ヴェレス氏は、「AIはパンドラの箱を開けてしまった。これからの研究は、猫と鼠のゲームが続くだろう」と警鐘を鳴らす。同様にケンブリッジ大学の計算社会学者ジョン・ルーゾンベック氏は、「安価で大規模なデータセットの時代は終わった。まるでニーチェが言った『神は死んだ』ように、私たちが殺したのだ」と嘆く。 ダートマス大学の政治学者シーアン・ウェストウッド氏の研究が特に注目されている。彼はOpenAIのo4-miniモデルを使い、オンライン調査の質問と選択肢を自動抽出し、AIが回答を生成して再び調査プラットフォームに送り込む仕組みを開発。300回の試行で、AIは「人間なら17と答えるが、AIなら円周率の最初の5桁を答える」という検出質問に対しても、100%「17」と正しく誤魔化した。さらに、人間のようなマウスの動きや、タイピングの誤字・訂正を再現するなど、人間らしさを巧みに模倣。性格や年齢、経済状況に応じた回答の変化も可能で、富裕層や博士号保持者を装うこともできた。 マックス・プランク研究所の行動科学者アネ・マリー・ヌスバーガー氏は、「少数の高度なユーザーがAIを用いて大量に回答を送れば、データ全体が歪むリスクがある」と指摘。また、人間の参加者もAIの存在を知っているため、行動を意図的に変える「期待バイアス」が生じる可能性がある。 調査参加者を管理するプラットフォーム「Prolific」のアンドリュー・ゴードン氏は、ウェストウッドの研究を「警告の発砲」と評価。CloudResearchのリーブ・リットマン氏は、自社の「レッドチーム」がマウス操作のパターンでAIを100%検出できることを報告しているが、モバイル端末ではこの手法は使えない。ヴェレス氏は、カメラのオン・オフを定期的に行うなど、物理的インタラクションを求める新たな検出法の開発を進めている。 こうした状況下で、オンライン調査の信頼性が失われれば、国際的・多様なサンプルの収集が難しくなる。しかし、ルーゾンベック氏は、現状の「オンライン研究の多様性」は過剰に評価されており、実際は都市部・教育水準の高い層に偏っていると指摘。真正の代表的なデータを得るには、国際的な協働が不可欠だと訴える。 EPFLのコンピュータ科学者ロバート・ウェスト氏は、「真の人間のデータが必要な研究では、現時点では非常に疑わしい」と断言。AIの進化は、社会科学の基礎となるデータ収集のあり方を根本から問い直す時代に入った。
