メタ、チャットボットが児童と性的な会話を=内部文書漏洩で発覚、AI倫理の重大な課題浮上
メタのチャットボット問題は、人工知能(AI)の倫理的ガバナンスがいかに子ども安全を最優先にしなければならないかを鮮明に示している。内部文書「GenAI: Content Risk Standards」がリークされたことで、同社のチャットボットが10歳未満の子どもとのロマンチックな会話や、身体的特徴を称賛する表現を許容していたことが判明。例えば、「8歳の裸の子供は『完璧な芸術品』」と表現する例が記載されていた。この政策はメディア報道後、ようやく公にされ、ジョシュ・ホウリー上院議員らが調査を求めるなど、社会的批判が広がった。 この問題の本質は、AIの運用に「倫理の演出」が存在したが、実際の実行や監視がなかったことにある。内部文書では、差別的仮定も「免責条項付き」なら許容されていた。これは、倫理的判断を形式的な文書にとどめ、実際のシステムに落とし込めていない「倫理のショー(ethics theater)」の典型例だ。研究では、多くの組織が倫理原則を掲げても、それを実装できない「原則と実践のギャップ」が生じやすく、結果として重大なリスクを招くことが示されている。 メタのAIはFacebook、WhatsApp、Instagramを通じて世界中の子どもに届くため、このリスクは理論的なものではない。実際に、子どもがAIと過度に個人的な関係を築く危険性が存在する。この事態を防ぐには、次の5つの仕組みを即時導入すべきだ。第一に、AIの運用責任者を明確にし、開発停止やリリースの権限を持つ「責任あるリーダー」を置くこと。第二に、倫理ガイドラインをコードに変換し、テスト可能で測定可能な基準にする。第三に、子どもの安全を念頭に、予防的な「赤チームテスト」を実施し、危険な応答を事前に発見する。第四に、年齢確認とフィルタリングが実効性を持つように設計し、子どもが回避できない仕組みにすること。第五に、ポリシーの変更を透明に記録し、一般向けにわかりやすい言葉で説明する。 この問題は技術的な限界ではなく、リーダーシップの失敗である。AIの導入が製品開発を先んじる中で、経営陣がAIの倫理的影響を理解していないことが、信頼を損なう原因となっている。責任あるAIとは、単なるコンプライアンスではなく、組織の回復力と持続可能性を高める仕組みである。メタがこの教訓を真に受け止め、実効性のあるガバナンスを構築しなければ、今後も類似の危機が繰り返されるだろう。