Back to Headlines

MetaのAIレビュー契約者、ユーザーの個人情報閲覧の実態暴露

4日前

MetaのAIチャットボットとユーザー間の会話は、実際には人間の契約社員によって閲覧されていることが明らかになった。Business Insiderの取材で、Metaが提供するAIサービスで使われる会話データを評価する契約作業員が、ユーザーの個人情報を含むチャットを日常的に目にしており、その中には名前、電話番号、メールアドレス、性別、趣味、さらには写真まで含まれていたことが判明した。これらの作業員は、Scale AI傘下のOutlierやAlignerrを通じて採用され、MetaのAI改善プロジェクトに従事している。 複数の作業員が、1週間に数千件のチャットを処理する中で、個人を特定できる情報が半数以上に見られたと証言。特に「Omni」と呼ばれるプロジェクトでは、ユーザーがAIに恋愛感情を寄せたり、精神的な悩みを打ち明けたりするような非常に個人的な会話が頻発していた。一部のユーザーはAIに自撮りや露骨な写真を送信したこともあり、その内容は深刻で、作業員自身が精神的負担を感じて作業を中断したという報告もある。 Metaのプライバシーポリシーでは、ユーザーの会話がAIの訓練に使われることを明記しているが、実際には人間がデータを閲覧する可能性がある。Metaは「契約社員が個人情報を最小限にしか見ない」と説明し、セキュリティ対策やデータ取り扱いのガイドラインを設けていると述べた。一方、OutlierとAlignerrのプロジェクト文書では、ユーザーの名前や場所、趣味といった情報がAIの返答をより個別化するために意図的に提供されており、作業員はその情報の一部をそのまま参照する必要があった。 この問題は、AIの「個人化」が進む中で、ユーザーが会話が「プライベート」と思っていることと、実際には人間が閲覧可能であるというギャップを生んでいる。専門家は、ユーザーが「AIはプライベート」と思いがちだが、実際には会話がAIの訓練や人間の監視に使われており、個人情報が流出するリスクがあると警告している。特に、会話がカウンセリングや恋愛的な関係に近い場合、情報の危険性はさらに高まる。 また、MetaはAIの会話を公のフィードに投稿する機能を提供しており、その結果、ユーザーが意図せず個人情報を公開する事例も発生。OpenAIも同様の問題を受けて、共有チャットのGoogleインデックス化を停止した。専門家は、データの最小化や情報の削除プロセスが不十分で、人間の監視が不可欠な現状を指摘。AIの発展とともに、ユーザーのプライバシー保護の仕組みが追いついていない現実が浮き彫りになった。

Related Links

MetaのAIレビュー契約者、ユーザーの個人情報閲覧の実態暴露 | ヘッドライン | HyperAI超神経