X、編集画像に「改ざんメディア」警告を導入か——AI検出の基準は不明
エロン・マスク氏が運営するX(旧Twitter)が、編集された画像を「改ざんメディア」として表示する新機能の導入を示唆している。マスク氏自身が「Edited visuals warning」という短い投稿をシェアし、匿名アカウント「DogeDesigner」が発信した新機能の発表を再共有した。DogeDesignerはXの新機能発表の代名詞として知られ、マスク氏が公式発表の前触れとして利用することが多い。しかし、この機能の詳細は依然として不明で、編集の範囲(Photoshopなどの伝統的編集ツールも含むか)、AI生成かどうかの判定基準、そして実装方法についての説明は一切ない。 Xの過去の政策では、AIだけでなく、編集・クロッピング・速度変更・音声オーバーダブ・字幕改ざんなども「改ざんメディア」として扱っていた。2020年当時、サイトインテグリティ責任者だったヨエル・ロス氏が説明したように、その対象はAIに限らず、あらゆる意図的な改変を含んでいた。しかし、現行のXではその政策が実効性を失っており、最近の非承諾ヌード画像のAI深層偽造問題などからも、規制の不備が浮き彫りになっている。 また、AIによる誤検出のリスクも懸念される。Metaが2024年に導入したAI画像ラベル機能では、実際の写真がAI生成と誤認される事例が相次いだ。これは、AIツール(例:AdobeのGenerative FillやJPEG圧縮)が画像に影響を与えることで、検出システムが誤って「AI生成」と判断したためだった。この問題を受け、Metaは「Made with AI」のラベルを「AI情報(AI info)」に変更し、誤解を避ける措置を取った。 こうした課題に対応するため、C2PA(コンテンツプロヴァンスと信頼性協会)が国際的な信頼性基準を設け、Google PhotosやMicrosoft、Adobe、OpenAIなど多数の企業が参加している。一方、XはC2PAのメンバーではないとされており、その判定基準や実装方法は未公表。マスク氏が言及した「新機能」がAI画像に限定されているのか、それともすべての編集画像を対象とするのか、明確ではない。 他にもTikTokやSpotify、DeezerなどもAIコンテンツのラベル付けを進めているが、Xの取り組みは依然として曖昧だ。政治的プロパガンダやフェイク情報の拡散リスクが高い中、透明性ある判定基準と、ユーザーによる異議申し立ての仕組み(例:Community Notes)の強化が求められている。
