AIとの会話、期待よりプライバシー保護が不十分
IMDEA Networks Institute の研究チームは、ChatGPT、Claude、Grok、Perplexity AI などの主要な生成 AI サービスが、Meta、Google、TikTok などから複数の第三者トラッカーを使用しており、ユーザーの会話や活動データが潜在的に暴露されていることを明らかにしました。急速に普及したこれらの AI は医療データや個人情報など機密性の高い情報を預かる信頼できるアシスタントとして認識されていますが、研究はこれが誤解であることを警告しています。技術的には、会話インターフェースは伝統的な Web エコシステムと同様のデータ収集とデジタル広告処理基盤の上に成り立っており、ユーザーは自分が監視されていることを意識していないケースが大半です。 研究で特定された主なリスクは三つあります。第一に、会話の固定リンクが第三者トラッカーに露出することです。第二に、トラッキングメカニズムを通じてこれらの活動を実際のユーザーの身元と紐付ける可能性があることです。第三に、プライバシー制御やポリシーが実際のデータフローを正確に反映していないことです。具体的には、Chat のタイトルや URL、メタデータが Meta Pixel などを通じて転送されるだけでなく、Grok や Perplexity ではアクセス制御が弱く、リンクさえあれば誰でも会話内容にアクセスできてしまいます。さらに Grok では、TikTok による Open Graph メタデータの収集を通じて、実際のメッセージテキストが露呈するケースも確認されました。 また、Cookie、ハッシュ化されたメールアドレス、サーバー側トラッキング技術などを組み合わせることで、ユーザーの永続的なプロファイル作成や再識別が可能になる仕組みも指摘されています。これは、データ駆動型のビジネスモデルが生成 AI エコシステムでも継続されていることを示しています。研究著者は、多くのユーザーがこの事態を把握しておらず、インターフェース上ではその兆候が見えないため、非必須クッキーの拒否だけでは不十分であると述べています。プライバシーポリシーは広告トラッカーの使用を認めているものの、実際の会話データが共有されていることを明確に明記していないことが問題です。 法的観点からは、GDPR(一般データ保護規則)においてデータ共有の明確な法的根拠が欠如しており、ユーザーへの情報提供も不十分であるとしています。本研究の共同執筆者である法律家は、最も機密性の高い情報が広告業界に渡る可能性は、「AI は誤りを犯す可能性がある」といった免責事項と同様に、真剣に注視されるべきであると強調しました。結論として、研究者らはこれらの知見が初期段階のものとはいえ、透明性の強化、アクセス制御メカニズムの改善、データ保護の徹底、そして規制の観点からの分析の進展が緊急に必要であると訴えています。
