メモリ内計算チップ、連邦学習の効率とプライバシー向上に貢献
Compute-in-memoryチップが連邦学習システムの効率とプライバシー向上に有望 近年、コンピュータ科学者たちは、大量のデータを分析することで特定のパターンを予測したり、効果的にタスクを完了させたりする高度な機械学習技術の開発を続けています。しかし、一部の研究では、AIベースのツールが悪意を持った第三者により扱われる可能性のある個人情報を処理していることから、セキュリティ上の脆弱性が指摘されています。こうした課題に対処するために有力なアプローチとして注目されているのが連邦学習(Federated Learning, FL)です。連邦学習は、さまざまなユーザー間で生データの交換を行わずに共有のニューラルネットワークを協力して訓練する方法で、特に医療や金融といった高感度なユーザーデータを扱う業界での活用が期待されています。 清華大学、中国モバイル研究所、河北大学の研究チームは最近、連邦学習の効率とセキュリティを大幅に向上させるために、メモスタレクス(memristors)を使用した新しいcompute-in-memory(CIM)チップを開発しました。この研究結果は、「Nature Electronics」誌に発表されました。 連邦学習は通常、準同型暗号化を用いて実現され、複数の参加者が共同でニューラルネットワークを訓練しながらデータプライバシーを維持します。ただし、準同型暗号化のローカルエッジでの実装には、鍵生成や誤差多項式生成、そして大量の計算が含まれるため、時間とエネルギーの消費が大きくなります。この研究チームは、メモスタレクスの特性を活用することで、これらの一連の操作を単一のチップ内で行い、データの移動を最小限に抑えることで効率とセキュリティの向上を目指しました。 メモスタレクスベースの新アーキテクチャは、競合形成配列操作法、コムピュートインメモリーに基づく冗長性抽出回路設計、及び剰余数系に基づく符号化Schemeを組み合わせています。これにより、低誤差率の計算、物理的ワンタイム・クローン不能関数(PUF)、および真の乱数発生器が同一のメモスタレクス配列と周辺回路で実現可能です。 研究者たちは、この新チップを使用して、4人の参加者が各々の患者の健康データを元にせん妄(重症感染症から引き起こされる重篤で生命を脅かす可能性のある症状)を予測する2層のLSTMネットワーク(重複短期記憶ネットワーク)を共に訓練するケーススタディを実施しました。128キロバイトのメモスタレクス配列を使用したテストでは、ソフトウェア集中学習による精度と比較してわずか0.12%低い結果を示しましたが、従来のデジタル連邦学習と比べてエネルギー消費と時間が大幅に削減されました。 この研究の成果は、連邦学習の効率とプライバシー向上に向けたメモスタレクスベースのコムピュートインメモリー構造のpotentialを示しています。将来、このチップはさらに改良され、様々なリアルワースタスク向けの深層学習アルゴリズムの共同訓練に利用される可能性があります。 この研究成果に対して関連業界からは、非常に高い期待が寄せられています。技術革新をリードする中国モバイル研究所の担当者は、「メモスタレクスを用いたCIMチップは、連邦学習の実用化に向けた重要な進展であり、今後の開発が楽しみです」と述べています。