AIエージェントがスタンフォードネットワークを16時間攻撃、人間のセキュリティ専門家を下回らず、コストは1時間18ドル
スタンフォード大学の研究チームが開発したAIセキュリティエージェント「ARTEMIS」が、16時間にわたり同大の公開・非公開ネットワークを探索し、プロのハッカーを上回る成果を上げた。この研究は、AIが従来のセキュリティテストの効率と精度を大幅に上回る可能性を示している。ARTEMISは1時間あたり約18ドル(日本円で約2,700円)のコストで運用可能で、人間の専門家(平均年収12万5,000ドル相当)の100分の1以下のコストで、同様の作業を実行した。 研究を主導したスタンフォードのJustin Lin、Eliot Jones、Donovan Jasperらのチームは、ARTEMISが10時間の実行期間中に9件の有効な脆弱性を発見し、82%の正解率を達成。これは10人の人間の専門家の中でも9人を上回る成果で、特に人間がアクセスできなかった古いサーバーの脆弱性をAIが発見した点が注目された。人間はブラウザの制限でアクセスできなかったが、ARTEMISはコマンドライン経由で侵入に成功した。 ARTEMISの強みは、特定の異常を検知すると自動的に「サブエージェント」を起動し、複数のターゲットを同時に調査できる点にある。一方、人間は一つずつ手作業で進める必要があり、時間と労力がかかる。研究チームは「AIはコードベースの入出力に強く、GUI(グラフィカルユーザーインターフェース)が存在しない環境では特に優れた性能を発揮する」と指摘している。 ただし、ARTEMISには限界もある。グラフィカルな操作が必要なタスクでは誤検知や漏れが発生し、実際には重要な脆弱性を見逃したケースもあった。また、無害なネットワークメッセージを誤って攻撃の兆候と判断する「誤報」も多発する。 一方で、AIの進化は悪用リスクも高めている。北朝鮮のハッキンググループはChatGPTで偽の軍人証明書を作成し、フィッシング攻撃に使用。また、中国の脅威行為者らはAnthropicのClaudeモデルを用いて、米国大手企業の内紹介を偽装し、システムに不正アクセスを図った。JFrogのCTO、Yuval Fernbach氏は「AIは攻撃の効率を飛躍的に高め、データ盗難やシステム停止、ウェブ操作の改ざんに使われている」と警鐘を鳴らしている。 ARTEMISの成功は、AIがセキュリティ分野の「強力な補助ツール」になり得ることを示す一方で、その活用には適切な監視とリスク管理が不可欠であることを改めて浮き彫りにしている。
