HyperAIHyperAI

Command Palette

Search for a command to run...

AIが21%を占める「ICLR 2026」の査読レビュー、AI検出ツールで判明

国際学習表現会議(ICLR)2026の論文査読が、人工知能(AI)によって大幅に生成されていることが明らかになった。この会議は機械学習分野の世界的な学会として知られ、来年4月にブラジル・リオデジャネイロで開催される予定だ。複数の研究者が、査読コメントに不自然な長さや曖昧な記述、虚偽の引用が含まれていると指摘。特に、カーネギー・メロン大学のAI研究者グレアム・ネュービッグ氏は、査読が「非常に冗長で、通常のAI論文では求められない分析を要求している」と報告。しかし、証拠を確保するには困難だった。 こうした懸念を受け、ネュービッグ氏がX(旧Twitter)でAI生成テキストのスキャンを依頼。翌日、ニューヨークのPangram Labs社のマックス・スペロCEOが応じ、全19,490件の論文と75,800件の査読を分析。その結果、査読の約21%が完全にAI生成、さらに50%以上がAIの影響を示す痕跡を含んでいた。論文自体についても、1%が完全にAI生成、9%が50%以上AI生成と判明。Pangramは自社のAI検出モデルを用いて分析し、その結果をプレプリントとしてICLR 2026に提出した。 この調査結果を受け、ICLRの主催組織は今後、AI利用に関するポリシー違反を自動検出するツールを導入する方針を表明。同会議の幹事であるコーネル大学のバラス・ハリハラン氏は、「これまでにない規模での問題であり、信頼性の再構築が不可欠」と語った。 研究者たちの間では、AIによる査読が論文の評価を歪め、誤ったフィードバックをもたらす懸念が広がっている。コペンハーゲン大学のデスモンド・エリオット氏は、自身の論文に寄せられた査読の1つがAI生成と判明し、誤った数値を引用するなど「論文の核心を理解していない」と指摘。その査読は最低評価を付け、論文の採択・否決の境界線上に置かれたと語り、「非常に落胆している」と述べた。 AIが査読プロセスに深く介入する現状は、学術の信頼性に深刻な影響を及ぼす可能性がある。今後、AI利用の透明性と監視体制の強化が、学術界全体で急務となる。

関連リンク