HyperAIHyperAI

Command Palette

Search for a command to run...

ICLR 2026にAI幻覚問題が波紋、GPTZeroが50件以上の不正投稿を発見

ICLR 2026の論文審査プロセスに深刻な信頼性の危機が生じている。わずか2週間前、OpenReviewのコード漏洩事件(「開盒事件」)で審査者の身元が暴露されたばかりだったが、今度はAI生成コンテンツの「幻覚」問題が広範に発生している。AI検出機関GPTZeroが実施した調査で、ICLR 2026の投稿論文300件のうち16%(50件以上)に、存在しない文献や偽の著者、捏造された実験データといったAI幻覚が確認された。これらの論文は、審査段階で均分8.0という高評価を獲得しており、口頭発表(Oral)や特別注目(Spotlight)の候補とされるトップ1.8%の水準に達している。 特に注目されたのは「TamperTok」と「MixtureVitae」の2論文。前者はNeurIPS 2023の論文を引用しつつ、実際の著者名を完全に置き換えた「偽著者」の事例。後者は3名の真の著者を残しつつ、残りを一部または完全に架空の名前にする「部分的偽造」戦略を用いて、審査者を欺く。また、「Safe-LLM」は「ICLR 2025に掲載済み」という記載を誤って記入し、時間軸の矛盾を生じた。さらに「IMPQ」論文は、arXiv IDは存在するが、リンク先の論文のタイトル・著者・内容と一致しない「偽リンク」を用いるなど、高度な偽装技術が用いられている。 ICLRは2024年8月、LLMの使用を明示し、AI生成内容の責任を著者に負わせる厳格なガイドラインを発表した。しかし、GPTZeroの調査は、この規範が実際には「形骸化」していることを示している。投稿数は19,490件に達し、審査意見は75,000件以上。これに対し、質の高い審査者数は限界に近い。その結果、AI生成の「偽り」が見過ごされ、審査の質が著しく低下している。さらに、21%の審査意見がAI生成と判明しており、「AI対AI」の悪循環が進行している。 専門家は、審査プロセスに技術的対策の導入が急務であると指摘。単なる「著者責任」に頼るだけでは、AIの誤用や幻覚の拡散を防げない。GPTZeroの検出ツールは、既にAI幻覚の「痕跡」を可視化可能であるが、その活用はまだ限定的。ICLRは、AI生成内容の自動検出システムの導入、参考文献の自動検証、審査者の負荷軽減のためのAI支援の明確なガイドライン策定を検討すべきだ。 今後のAI研究の信頼性は、審査プロセスの透明性と技術的対策にかかっている。ICLRの今回の事態は、AI時代の学術倫理と制度の再構築を求める、重大な警鐘である。

関連リンク

ICLR 2026にAI幻覚問題が波紋、GPTZeroが50件以上の不正投稿を発見 | 人気の記事 | HyperAI超神経