8日前
10 セキュリティおよびプライバシーに関する問題点:大規模ファウンデーションモデルにおける課題
Jinyuan Jia, Hongbin Liu, Neil Zhenqiang Gong

要約
近年、GPT、CLIP、DINOなどの基礎モデル(Foundation Models)は画期的な進展を遂げており、汎用人工知能(General-Purpose AI)の有望なアプローチとして広く認識されている。特に、大量のラベルなしデータを用いて自己教師学習(Self-Supervised Learning)により基礎モデルを事前学習する手法が採用されている。事前学習済みの基礎モデルは、AIエコシステムにおける「オペレーティングシステム」にたとえられる。具体的には、少量または全くラベルのないデータで微調整(fine-tuning)を行うことで、さまざまな下流タスク(downstream tasks)に特徴抽出器として利用可能である。これまでの基礎モデルに関する研究は、敵対的状況を考慮せずに、より優れた基礎モデルの事前学習に焦点を当てており、敵対的環境におけるセキュリティおよびプライバシーの問題はほとんど検討されていない。事前学習済みの基礎モデルに生じるセキュリティまたはプライバシー上の問題は、AIエコシステム全体における単一障害点(Single Point of Failure)となり得る。本章では、事前学習済みの基礎モデルに関する10の基本的なセキュリティおよびプライバシーの課題について論じる。これらは、6つの機密性(Confidentiality)問題、3つの完全性(Integrity)問題、および1つの可用性(Availability)問題に分類される。各問題について、潜在的な機会と課題を考察する。本章が、基礎モデルのセキュリティおよびプライバシーに関する今後の研究を促進することを期待している。