HyperAIHyperAI

Command Palette

Search for a command to run...

深層偽造ポルノアプリ「ClothOff」対策の難しさが露呈 法的対応の限界とグローバルな闇

ニュージャージー州で提訴された訴訟は、深層偽造(deepfake)ポルノに対抗する難しさを浮き彫りにしている。2年以上にわたり、ユーザーが他人の写真をAIで露出させてしまうアプリ「ClothOff」が、若者女性たちを脅かし続けてきた。このアプリは主なアプリストアやSNSから削除され、多くのプラットフォームで禁止されているが、依然としてウェブサイトやTelegramのボット経由で利用可能だ。10月、イェール大学法科大学院のクリニックが、開発者らを相手に訴訟を提起。アプリの完全廃止、すべての画像の削除、運営の停止を求める内容だ。しかし、被告の特定が極めて困難で、法務担当のジョン・ランフォード教授は「英領ヴァージン諸島に登録されているが、白ロシアに住む兄妹が運営している可能性があり、世界規模のネットワークの一環かもしれない」と説明する。 訴訟の原告は、14歳のニュージャージー在住の女子高校生。彼女のInstagram写真が同アプリで改ざんされ、AIが性的に露出した姿に加工された。当時の写真は本人が未成年だったため、改変された画像は「児童ポルノ」として法的に厳しく禁止されている。しかし、地元当局は証拠収集の困難さを理由に起訴を断った。「Jane Doeさんや他の少女たちの画像がどれほど広がったか、学校や警察は確認できていない」と訴状は指摘する。 一方、エロン・マスク氏率いるxAIが開発したAIチャット「Grok」も同様の問題を引き起こしている。Grokは一般用途のAIであり、特定の悪意ある用途に設計されていないため、法的責任を問うのは極めて難しい。ClothOffは「深層偽造ポルノ生成専用」として明確に設計されているが、Grokはあらゆる用途に使えるため、使用者が悪用したとしても、開発者に「意図的な悪意」があると証明できない。米国憲法第1修正条項による表現の自由が、こうした一般型AIの保護を強化している。 米国では「Take It Down Act」など、深層偽造ポルノを禁止する法律はあるが、プラットフォーム全体の責任を問うのは現実的ではない。マスク氏が従業員にGrokのセーフガードを緩和するよう指示したという報道があるが、それでも「意図的無視」を証明するのは極めて難しく、法的リスクは高まる。一方、インドネシアやマレーシア、英国、欧州委員会、フランス、アイルランド、ブラジルなどではGrokの利用制限や調査が進んでおり、米国はまだ対応が遅れている。 「児童ポルノの作成・配布は犯罪。しかし、X(元Twitter)は、何を知っていたのか? 何をしたのか? 何を今もしているのか?」——ランフォード氏の問いは、技術と法の境界が曖昧な時代における最大の課題を突いている。

Related Links