HyperAIHyperAI

Command Palette

Search for a command to run...

AIモデルのパラメータ盗難を防ぐ初の防御技術が開発

北カロライナ州立大学の研究チームが、人工知能(AI)モデルのパラメータを数学的に盗み出す「暗号解析攻撃」に対する世界初の実用的防御技術を開発した。この攻撃は、AIモデルの内部構造であるパラメータを抽出することで、モデルの仕組みそのものを模倣・複製するもので、AIの知的財産を危険にさらす。研究の第一著者であるアシュリー・クリアン氏は、「これまでこうした攻撃に対して防御策はなく、今こそ対策を講じるべき時だ」と指摘する。 暗号解析攻撃は、入力を送信して出力を観測し、数学的手法でパラメータを逆算する。この手法は、特にニューラルネットワーク型AI(チャットGPTなど多くの商用AIに採用)に対して効果的であり、実際の攻撃が既に発生しているとされる。研究チームは、こうした攻撃が「ニューロン間の違い」に依存していることに着目。攻撃が効果的になるほど、同じ層内のニューロンの差異が大きいことを発見した。 そこで開発された防御策は、「同じ層内のニューロンをできるだけ似せる」ことで、攻撃の進行を困難にするというもの。この訓練手法により、攻撃者が数学的にパラメータを特定する「道」を遮断する「類似性の壁」を構築できる。実験では、防御を導入したモデルの精度変化は1%未満に抑えられ、一部ではわずかに精度が向上したケースもあった。さらに、従来4時間以内にパラメータを抽出できた攻撃が、防御モデルでは数日間かけても成功しなかった。 研究チームは、攻撃の成功率を予測できる理論的フレームワークも同時に開発。これにより、モデルの安全性を長時間の攻撃実験なしに評価できる。研究は、2025年12月にカリフォルニア州サンディエゴで開催される「NeurIPS」会議で発表される予定。チームは業界との協力を歓迎しており、今後のセキュリティ対策の進展に期待が寄せられている。

関連リンク

AIモデルのパラメータ盗難を防ぐ初の防御技術が開発 | 人気の記事 | HyperAI超神経