HyperAIHyperAI

Command Palette

Search for a command to run...

AIが駆使された「異常な投稿爆増」で学術雑誌の論文レビューが危機に

医学雑誌への「編集者向け手紙」(Letters to the Editor)の投稿が急増しており、その多くが人工知能(AI)による生成である可能性が浮き彫りになっている。医師研究者であるカルロス・チャコールと統計学者のマシュー・ラッドが、『ニューイングランド医学雑誌』(NEJM)に論文を発表した直後、その論文を批判する手紙を受け取った。その手紙は文句なしに洗練されていたが、引用した研究が主張と一致しない点に違和感を覚え、AIによる捏造が疑われた。これをきっかけに、両氏は過去20年間で約73万通の手紙を調査。2023年から2025年にかけて、一時的に「著者としての初登場」を果たした「生産的デビュート」(prolific debutante)と呼ばれる少数の著者が、手紙の上位5%に急上昇したことが判明した。この急増は、2022年に登場したChatGPTのような生成AIの普及と強く関連していると指摘されている。 調査によると、このグループは2023~2025年の間に全著者の3%にすぎないが、発表された手紙の22%(約2万3000通)を占め、1930誌に投稿。NEJMやランセットなど著名な雑誌にも多数掲載されている。特に注目されたのは、Qatarの医師1人が2024年にはゼロ投稿だったが、2025年には80通以上を投稿した事例。1人で58分野にわたるテーマに言及しており、現実的な専門性の範囲を超えている。AIテキスト検出ツール「Pangram AI」で分析した結果、このQatari著者の81通の手紙の平均スコアは80(100点満点)で、AI生成の可能性が極めて高いと判明。一方、2000年代後半の同様の著者を対象にした比較では、スコアはゼロだった。 手紙は通常、peer reviewがなく、短く、即時性があるため、AIによる大量生成に適している。また、投稿者にとって「CVの数値を増やす」ための手軽な手段として悪用されるリスクがある。研究者たちは、AI生成の手紙が質の低い内容や繰り返しの構成(「中学生の作文のように」)を示し、本質的な議論を妨げていると懸念している。特に、『Clinical Orthopaedics』の編集長セス・レオポルド氏は、AI生成の手紙が「不適切な構造」「論文自身が指摘済みの限界を再掲」するなど、信頼性を損なっていると指摘。投稿にAI使用を明記するよう求めているが、報告率は低い。 チャコール氏は、「6年と2500万ドルの研究を費やした論文が、AIで数分で批判される手紙に飲み込まれる」と嘆き、真の議論が「合成ノイズ」に飲み込まれる危機を警告している。科学の信頼性を守るためには、編集者による厳格な検証が不可欠だと訴えている。

関連リンク