Back to Headlines

Google、AI製品の脆弱性を発見したハッカーに最大30万円の報奨金を支給

6日前

グーグルがAI製品のセキュリティバグを発見したハッカーに最大3万ドルを支払う新プログラムを発表した。このAIバウンティプログラムは、AIシステムが悪用されるリスクを未然に防ぐことを目的としており、特に「悪意ある行動」を引き起こす脆弱性に焦点を当てる。具体的な例として、Google Homeを不正に解錠させるプロンプト注入や、メール内容を要約して攻撃者のアカウントに送信するデータ漏洩型の攻撃が挙げられる。これらの事例は、大規模言語モデルや生成AIを介して、ユーザーのアカウントやデータを改ざん・不正利用する行為に該当する。 グーグルは、AIバグを「AIシステムを悪用して不正な結果を引き起こす問題」と定義。特に、ユーザーのセキュリティを損なう行動や、スマートシャッターの開閉や照明の無効化といった物理的影響を引き起こす脆弱性を優先対象としている。一方で、Geminiが誤った情報を生成する「ハルシネーション」だけでは対象外。コンテンツ生成に関する問題(差別的表現や著作権侵害など)は、製品内フィードバックチャネルを通じて報告するよう呼びかけている。これにより、AIの安全性を長期的に改善するためのモデル訓練が可能になるという。 プログラムの対象となるのは、検索、Geminiアプリ、GmailやDriveといった主要なWorkspace製品。これらの「主力製品」で見つかった深刻なバグには最大2万ドルの報奨金が支払われる。報告の質や発見の独創性に応じて追加報奨金が付与され、合計3万ドルまで上乗せ可能。他の製品(例:JulesやNotebookLM)や、モデルパラメータの盗難など軽微な問題については報奨金が低くなる。 また、同日にはAIが脆弱性のあるコードを自動修復する「CodeMender」というAIエージェントも発表。人間の研究者が検証した結果、オープンソースプロジェクト72件のセキュリティ修正に活用されたと説明している。 この取り組みは、AIの活用拡大に伴うリスク管理の重要性を示すものであり、グーグルがAIの安全性をビジネスの根幹に据える姿勢を強調している。

Related Links