HyperAIHyperAI

Command Palette

Search for a command to run...

Google、非自発的性的画像を検出・削除へ StopNCIIのハッシュ活用を開始

Googleは、同意のない性的画像(非自発的 intimate 画像、NCII)の拡散を防ぐため、StopNCII.orgと協力してハッシュ値を活用する仕組みを導入すると発表した。今後数か月のうちに、StopNCIIが提供する画像用のPDQハッシュと動画用のMD5ハッシュを用いて、Google検索結果内に含まれる違法コンテンツを自動で特定し、削除を実施する。ハッシュ値は、画像や動画の内容を正確に識別するためのアルゴリズム生成の固有IDであり、実際の画像データを保存・共有することなく、違法コンテンツのブロッキングが可能となる。 この取り組みは、同社が他社に比べて遅れていた点を認識した上で進められている。Googleのブログ記事では、「被害者や支援団体から、オープンウェブの規模を考慮すると、影響を受けた人々の負担をさらに軽減すべきだ」との声を受けており、対応の遅れに言及している。 既に2022年からFacebook、Instagram、TikTok、BumbleがStopNCIIと提携しており、Microsoftも昨年9月にBingに同システムを統合している。Googleの今回の発表は、こうした先進的な取り組みに遅れを取っていた点を補うものであり、オンライン上のプライバシー侵害対策としての姿勢の強化を示している。 この仕組みにより、被害者が再び画像を検索結果に晒されるリスクが大幅に低減され、被害者の心理的負担軽減と法的・倫理的配慮の実現が期待される。Googleは今後、ハッシュベースの検出技術をさらに拡充し、より広範なコンテンツ管理に活用していく方針だ。

関連リンク

Google、非自発的性的画像を検出・削除へ StopNCIIのハッシュ活用を開始 | 人気の記事 | HyperAI超神経