HyperAIHyperAI

Command Palette

Search for a command to run...

AIがプライベート・著作物データを「消去可能」に——UCリバーサイドが新技術を開発

カリフォルニア大学リバーサイド(UCR)の研究チームが、元の学習データにアクセスせずにAIモデルから個人情報や著作権データを完全に消去できる新技術を開発した。この成果は、7月にバンクーバーで開催された国際機械学習会議(ICML)で発表され、arXivにも論文として掲載された。同技術は、AIモデルが学習したデータの一部を「忘れさせる」ことで、プライバシー保護や著作権遵守を実現するもので、従来の再学習に比べて計算リソースを大幅に削減できる。 研究の主導者である電気工学博士課程のÜmit Yiğit Başaran氏は、「現実には元のデータを再取得できないケースがほとんど。我々のフレームワークは、データが失われた後でも、確実に削除が可能である」と強調。この手法は「ソースフリー認証忘れ(source-free certified unlearning)」と呼ばれ、元のデータに似た統計的特徴を持つ「代替データ(サロゲートデータ)」を使って、モデルのパラメータを調整。同時に精密に計算されたノイズを加えることで、特定情報の再構成を不可能にしている。 このアプローチは、モデルを完全に再構築する必要がなく、エネルギー消費やコストを抑える点で大きな利点を持つ。実験では合成データと実際のデータセットを用いて検証され、完全再学習と同等のプライバシー保証が得られた。現在は比較的シンプルなモデルに適用可能だが、今後はチャットGPTのような複雑なモデルにも拡張する予定だ。 この技術は、EUのGDPRやカリフォルニアのCCPAといった厳しいプライバシー法の遵守に貢献する。また、ニューヨーク・タイムズがOpenAIとマイクロソフトを著作権侵害で提訴するなど、AIに掲載されたコンテンツの扱いが国際的な課題になっている中、メディア機関や医療機関が機密情報を安全に管理できる手段となる。研究チームのBaşak Güler氏は、「人々は自分のデータがAIから確実に削除できると知るべきだ。理論ではなく、証明可能な方法で」と述べている。 今後は、より高度なモデルへの適用と、開発者向けの実用ツールの開発を進める予定。本研究は、UCRの人工知能研究教育センター(RAISE)のアミット・ロイ・チャウドリ教授とバシャク・ギュラー助教授らが主導。共同研究者にはブルックヘブン国立研究所のス・ミラージ・アフメド氏も参加している。

関連リンク

AIがプライベート・著作物データを「消去可能」に——UCリバーサイドが新技術を開発 | 人気の記事 | HyperAI超神経