Command Palette
Search for a command to run...
Siyang Jiang Hao Yang Qipeng Xie Chuan Ma Sen Wang Zhe Liu Tao Xiang Guoliang Xing

要約
金融や医療など、データガバナンスに厳格な規制が課される分野では、データの共有および活用が特に困難な課題に直面している。これに対し、連合学習(Federated Learning, FL)は、データの分散化を保ちつつ複数の機関間で協調的なモデル学習を可能にする画期的な分散型機械学習の枠組みとして注目されている。しかし、FLはその利点にかかわらず、特に中央サーバーが管理するモデル集約プロセスにおいて、悪意ある攻撃、特にポイズン攻撃(poisoning attack)に対して脆弱である。さらに、こうしたシステムにおいても、ニューラルネットワークモデルは訓練データの個別インスタンスを意図せず記憶し、その情報が漏洩する可能性を孕んでいる。このため、攻撃者がモデルに内包された情報を用いて個人のプライベートデータを再構成するという重大なプライバシーリスクが生じる。現存の解決策は、情報漏洩に対して完全に安全でありながら、計算効率も確保できる実用的なプライバシー保護型BRFL(Privacy-Preserving Byzantine-Robust Federated Learning)システムの構築に至っておらず、限界がある。こうした課題に応じ、本研究では、完全準同型暗号(Fully Homomorphic Encryption, FHE)を用いて悪意あるクライアントの活動を防御しつつ、データプライバシーを維持する、革新的かつ計算効率の高いBRFLフレームワーク「Lancelot」を提案する。医療画像診断および広く用いられる公開画像データセットを用いた広範な実験結果から、Lancelotは既存手法を大きく上回り、処理速度が20倍以上向上しつつも、データプライバシーを確実に守ることを実証した。