"Wikipedia Pauses AI-Generated Summaries Amid Editor Backlash"
WikipediaのAI生成要約プランにより、編集者たちが激しく反発 ウィキメディア財団(Wikipediaの母体組織)は今週、AI駆動の新たな記事生成ツールの試験導入を発表しました。しかし、この提案に対して編集者コミュニティから怒りの声が相次ぎ、財団はすぐに見解を改め、新しい機能の試験開始を「一時停止」としました。 財団は、世界中の読者がより簡単に情報を得られるようにしたいと説明。AIによって生成され、編集者がモデレーションを行う短い記事要約を試してみる意向でした。しかし、これは大半のコミュニティメンバーから強く反対されました。 編集者の一人は、「なんてことだ。絶対にダメだ。どのデバイスにも、どのバージョンにも适用すべきではない。この単なるPR行為に何が問題か説明するところから始めよう」と述べました。また別の編集者は、「これによって我々が現在持っている正確性への評判が壊されるだろう」と警告しました。「人々はAIにより作られたフロウな部分を読み飛び、真の意味を知ろうとはしないだろう」。 多くの編集者がこのプロジェクトに断固たる反対を表明し、「WMFのスタッフたちは、レジュメにAI関連のプロジェクトと書くために、ウィキペディアを殺そうとしているのではないか」とまで言及しました。 「AIの導入を止めて欲しい。それだけだ」という強い批判も。一部のユーザーは、財団がコミュニティの意見を無視する可能性があると懸念しており、「少なくとも調査の機会を与えられることを望む。WMFの他の調査とは異なり、『NO』と答える選択肢があることを確幸したい」と主張しています。 このような反対声に対し、ウィキメディア財団は機能の一時停止を決定。「我々は、世界的にWikipediaやWikimediaプロジェクトがより利用しやすく、多岐にわたる読者層に情報を届けられることを目指している」と、同財団報道担当は話します。「今回の2週間のオプト・イン(選択参加型)の実験は、複雑なWikipedia記事を異なる知識レベルの人々が理解しやすい形にすることに焦点を当てたものだった。使用された要約は、Cohereによって作成されたオープンウェイトのAyaモデルを使用している。このプランでは、人間が最終的に表示する情報の選別について議論を深めることを目指していた」。