ChatGPTの誤った共有機能で流出した秘匿チャット、倫理的問題や個人情報漏洩の深刻な事例が判明
ChatGPTの漏洩した会話内容が、ユーザーがAIに倫理的に問題のある行為を依頼している実態を浮き彫りにしている。OpenAIが提供する「共有」機能の設計ミスにより、一部のチャットが公開ページとして生成され、検索エンジンにインデックスされる事態が発生。これにより、個人のプライバシーを侵害するような内容が、誰でもアクセス可能な形で広がった。 調査者ヘンク・ファン・エスが運営するSubstack「Digital Digging」は、この問題を指摘。共有機能は意図的に「有用な会話を発見しやすくする」という一時的な実験だったが、結果として機密性の高い会話が公開された。OpenAIはその後、チャットの公開機能を削除し、検索結果の削除作業を開始したが、一部はアーカイブサイト「Archive.org」に保存されており、完全に消去は難しい状況だ。 特に注目されたのは、イタリアの弁護士と自称するユーザーがChatGPTに「南米の先住民コミュニティを土地開発のために排除する方法」を尋ねたケース。そのユーザーは「土地の価値を理解していない」として、最低価格での交渉戦略をAIに求めた。これは、通常は長期間の調査と法律的準備が必要な極めて非道な行為を、一瞬でAIに委ねようとした例である。 他にも、国際シンクタンクに所属する人物が米国政府崩壊シナリオの対策をAIに相談。また、事故で同僚の事件を引き継いだ弁護士が、AIに自身が相手側の立場になる弁護資料を作成させようとしたケースも明らかになった。さらには、DV被害者が逃亡計画を立てる会話、エジプト政府を批判するための文章作成を求めるアラビア語ユーザーのチャットも確認された。こうした内容は、独裁政権下で政治的弾圧の対象になるリスクを伴う。 これらの事例は、AIが「信頼できる相談相手」と見なされる傾向に警鐘を鳴らす。音声アシスタントの録音問題と同様、会話は一見「プライベート」に思えるが、実際には非常に深い個人情報や危険な意図が含まれている。AIは「知性のシミュレーション」に過ぎず、ユーザーの倫理的判断を代行するものではない。開発者やユーザーの意識改革が、今こそ求められている。