Wikipedia、AI生成コンテンツの乱流に「即時削除」で対抗
AI生成コンテンツの急増に伴い、Wikipediaのボランティア編集者たちが「AIスロップ(低品質なAI生成コンテンツ)」との戦いに乗り出している。AIツールの普及により、誤った情報や架空の出典を含む不適切な記事が相次いで投稿され、編集コミュニティはその対策に追われている。ウィキメディア財団のプロダクトディレクター、マーシャル・ミラー氏は、この取り組みを「インターネットの変化に適応する、一種の免疫反応」と表現。情報の中立性と信頼性を守るために、編集者が常に警戒を怠らない姿勢が求められている。 その対策の一つとして、編集者たちは「即時削除」ルールの活用を強化している。これまでの削除プロセスは7日間の議論を経る必要があったが、新たに導入されたルールでは、AI生成であることが明らかな記事、かつ投稿者が自身の編集を確認していない場合、管理者が議論を経ずに削除できるようになった。主な判断基準は3つ:不自然な表現、出典の欠如、および特定の文法的特徴の繰り返し。 編集者たちは、AI生成記事に特徴的な「過剰なダッシュ(—)」や「moreover」などの接続詞の乱用、プロモーション的な表現(例:「壮大な」)なども警戒している。また、カーリー引用符やアポストロフィの誤用といったフォーマットの問題も目立つ。ただし、これらの特徴は単独ではAI生成と断定できないと明言されており、総合的な判断が不可欠。 さらに、WikiProject AI Cleanupというプロジェクトが立ち上がり、AI生成コンテンツの特徴リストを整備。編集者たちは、AIによる「嘘の出典」や「意味不明な文章」に費やす時間の多さを嘆いている。一方、ウィキメディア財団はAIを完全に否定するのではなく、編集の支援ツールとして活用する姿勢を示している。現在は、改ざんを検出するAIの活用や、反復作業の自動化、翻訳支援の導入を進めている。 また、新規編集者向けに「Edit Check」や「Paste Check」の開発も進行中。前者は出典の不足やトーンの偏りを警告し、後者は大規模なテキスト貼り付け時に「自分で書いたか」を確認させる仕組み。コミュニティからのフィードバックも活用され、一部のユーザーはAI生成率の報告を求める提案もしている。 ミラー氏は「AIは品質の低下を助長する一方、編集を支援する可能性も持つ」と指摘。今後の焦点は、AIを「人間の編集を補助するツール」として正しく活用することにある。