AIが自律的に ransomware 攻撃を実行する「Ransomware 3.0」が登場、研究で実証
ニューヨーク大学Tandon工学部の研究チームが、大規模言語モデル(LLM)を活用した自律型ランサムウェア「Ransomware 3.0」の実現可能性を実証した。この研究はarXivに掲載され、AIがサイバー攻撃の全工程——システムのスキャン、重要ファイルの特定、データの暗号化または盗難、そして被害者への脅迫文の生成——を一貫して自動で実行できることを示している。研究チームは、この技術を「PromptLock」と命名し、セキュリティ企業ESETがVirusTotalで検出した際、本物の攻撃ソフトと誤認されるほど実用的な仕組みを備えていると指摘した。 実験では、LLMに「指示文」を埋め込んだマルウェアが、Windows、Linux、Raspberry Piなど複数の環境で動作。オープンソースのAIモデルを用いて、各環境に最適化されたLuaスクリプトをリアルタイム生成。同じプロンプトでも毎回異なるコードが作成されるため、従来のシグネチャベースの検出手法では検知が困難になる。テスト結果では、環境によって63%~96%の機密ファイルを正しく特定。攻撃コードはマルチプラットフォームで動作可能で、改変なしに利用可能だった。 経済的側面では、1回の攻撃で約2万3000トークンを使用するが、商用APIを用いればコストは約0.7ドルにとどまる。オープンソースモデルを使えば費用はゼロ。これにより、技術力の低い犯罪グループでも高度なランサムウェア攻撃を実行できる可能性が浮上する。さらに、発見したファイル名を反映した個別化された脅迫文の生成により、被害者の心理的圧迫を強化できる。 研究は倫理的ガイドラインのもと、制御された実験環境で行われており、実際の攻撃コードではない。しかし、ESETが誤って「現実世界の攻撃ツール」と認識した事例から、AI生成攻撃がセキュリティ専門家をも欺くほどの精度を持つことが明らかになった。研究チームは、異常なファイルアクセスの監視、AIサービスへの外部接続の制御、AI生成攻撃特有の振る舞いを検出する防御策の開発を提言している。この研究は、AIを活用したサイバー脅威の新たな段階を警告する重要な知見である。
