YouTube、AI生成スパム対策を強化 2026年戦略に含む
YouTubeがAI生成コンテンツの乱立に歯止めをかけ始めている。同プラットフォームのCEO、ネール・モハン氏は、2026年の主要戦略の一つとして「低品質なAIコンテンツの拡散を抑制すること」を明言した。最近、動画編集ツール「Kapwing」の分析によると、YouTubeはAI生成動画を大量に配信していた10数個の主要アカウントを削除。これらのアカウントは猫やイエス・キリストをテーマにしたコンテンツを自動生成し、数百万回の再生を記録していたが、一時的に非公開となった。 Kapwingの11月の調査では、YouTubeの動画フィード全体の約21%がAI生成と推定された。YouTube側は「スパム、詐欺、あるいはコミュニティを欺く行為は禁止」と明言しており、今回の削除はその方針の延長線上にある。モハン氏は、既存のスパムやクリックベイト対策システムを強化し、反復的で質の低いコンテンツの拡散を防ぐ取り組みを進めていると説明した。 YouTubeはAIそのものを否定していない。親会社のグーグルは「Veo 3」や「Nano Banana」など、最先端のAI動画生成技術を開発している。しかし、広告主に「YouTubeはテレビの未来だ」と訴えるためには、質の高いコンテンツが確保されていることが不可欠だ。近年、同社はNewFrontsなどの広告主向けイベントを通じて、高品質なオリジナルコンテンツを強調してきた。 「広告主は質の高いコンテンツに広告を出稿したい」と、メディアクリエイターで「What's Trending」の創設者であるシラ・ラザール氏は指摘する。「もしプラットフォームがAIの粗悪な生成物で埋め尽くされていれば、高単価の広告料は期待できない」と語った。 TikTokやInstagramも同様にAI動画の氾濫に直面しており、TikTokはユーザーがAIコンテンツの表示量を調整できるオプションを導入している。一方、YouTubeは米国での視聴時間でNetflixやDisney+を上回るトップのストリーミングプラットフォームとして、広告収益の基盤を守るために、AIの活用と品質管理のバランスを取る動きを加速している。
