中国、AI学習に向けたチャットログ利用にユーザー同意義務を導入へ
中国は、AIモデルの学習にユーザーのチャットログを利用する際の規制を強化する方針を示している。国家サイバースペース管理局は土曜日に発表した草案で、AIプラットフォームがユーザーとの会話データを収集・利用するには、事前の明示的同意が必要になると定めた。この措置は、チャットボットやバーチャルコンパニオンといった「人間らしい」対話型AIサービスの安全性と信頼性を確保することを目的としている。 草案によると、ユーザーがAIと対話していることを明確に通知し、チャット履歴の閲覧や削除の権利を保障する義務がプラットフォームに課される。特に未成年者のデータについては、保護者の同意が必須であり、保護者は子どもの履歴を削除する権利を持つ。また、会話データを第三者と共有する場合も、ユーザーの明確な許可が必要となる。 この草案は公開され、意見募集期間は1月下旬まで。分析筋によると、中国はAIの急速な発展と並行して、個人情報保護や国家セキュリティを重視した「慎重な階層的監視」を進めている。Omdiaのチーフアナリスト、Lian Jye Su氏は、「チャットログの制限は、強化学習における人間からのフィードバックの機会を減らす可能性がある」と指摘しつつも、「中国には膨大な公的・独自データセットがあり、AI開発の基盤は堅固」と述べた。 Counterpoint Researchの主なAIアナリスト、Wei Sun氏は、これらの規制は「革新を抑制するためのブレーキではなく、方向性を示す信号」と評価。「ユーザー保護とデータ利用の透明性を重視しており、技術革新を抑制する意図ではない」と強調した。特に高齢化が進む社会において、安心かつ規制された形で人間らしいAIを介した介護やコミュニケーションサービスの拡大を促す政策的意図があると分析している。 こうした動きは、Metaやグーグルなどの企業が契約スタッフを通じてユーザーのチャットログを閲覧している問題への懸念とも関連している。個人情報の漏洩リスクや、プライベートな会話が機械学習データとして扱われる現状に対する警鐘が高まっている。中国の新規制は、ユーザーの対話が「無料の学習素材」として扱われることへの警戒を示すものであり、AIの発展と安全の両立を図る重要な一歩と位置づけられる。
