AIセキュリティの課題:従来のサイバーチームでは対応できない新たな脅威
AIの進化に伴い、企業のセキュリティ体制に深刻な課題が浮上している。AIセキュリティ研究者のサンダー・シュルホフ氏は、多くの企業がAIシステムの失敗に備えた人材と対応体制を整えていないと指摘した。彼は「Lenny's Podcast」で、従来のサイバーセキュリティチームはバグの修正に長けているが、AIの挙動はそれとは根本的に異なると強調。「バグは修正できるが、『脳』は修正できない」と述べ、AIの脆弱性は従来のセキュリティ手法では捉えきれないことを明かした。 AIはコードのバグではなく、プロンプトの操作や間接的な誘導によって意図しない行動を引き起こす。シュルホフ氏は、セキュリティ担当者がAIの技術的欠陥に注目する一方で、「誰かがAIを誤って操作して悪意あるコードを生成させること」を考慮していないケースが多いと指摘。彼が運営するプロンプト工学プラットフォームやAI赤チーム(攻撃模擬)イベントでも、AIの誘導攻撃のリスクが実証されている。 彼は、AIセキュリティと従来のセキュリティの交差点に「未来のセキュリティ職の中心」があると予測。AIの挙動を理解し、プロンプト攻撃や出力の不正利用を防ぐ能力を持つ人材の育成が急務である。 一方で、AIセキュリティ分野のスタートアップが急増しているが、シュルホフ氏は「すべてを防げる」という主張は虚偽だと断言。「無数の攻撃手法がある中で、『万能』を謳うガードレール製品は、市場の修正によって崩壊する」と予測。実際、グーグルは320億ドルでサイバーセキュリティ企業Wizを買収し、AI時代のクラウドセキュリティ強化を図った。同社のサンドアール・ピチャイCEOは、AIが多クラウド環境で新たなリスクを生み出していると指摘。企業は、複数のクラウドを横断するセキュリティ対策の必要性を高めている。 AIのセキュリティは、技術の進化に追いつく人材と戦略の両輪が不可欠である。
