Back to Headlines

オープンソースGenAI、セキュリティガードレール導入で企業利用に向けた実証結果が公開

4日前

オープンソース生成AI(GenAI)モデルが、適切なセキュリティガードレールを導入することで企業向け導入に十分な水準に達していることが、最新の評価で実証された。LatticeFlow AIとSambaNovaが共同で実施した調査によると、主要なオープンソースモデル5種類について、攻撃的なプロンプトや改ざん入力をブロックする専用フィルタリング層(ガードレール)を適用した結果、セキュリティスコアが1.8%から99.6%まで急上昇。さらに、サービス品質は98%以上を維持し、ユーザー体験の低下は認められなかった。 この評価は、企業の実運用環境に即した攻撃シナリオ(プロンプトインジェクションなど)を想定し、セキュリティ耐性と可用性の両面を測定。結果として、ガードレールを導入することで、オープンモデルが閉鎖型モデルと同等、あるいは上回るセキュリティ水準を達成することが初めて定量的に裏付けられた。 LatticeFlow AIのCEO兼共同創業者であるペタール・ツァンコフ博士は、「企業がAIのリスクとセキュリティを正確に評価できるように、技術的な透明性と証拠に基づく意思決定を可能にするのが当社の使命だ」と強調。同社が開発した「COMPL-AI」は、EUのAI法に基づく世界初の生成AIフレームワークであり、ETHチューリッヒやINSAITと協働して構築された。 SambaNovaの最高営業責任者ハリー・オールト氏も、「金融機関や政府機関を含む顧客が、オープンソースモデルと高速推論を活用して次世代のエージェント型アプリケーションを構築している。この評価は、適切な保護策があれば、オープンモデルが規制産業でも導入可能であることを実証している」と述べた。 この結果は、企業がAI導入を本格化する中で、セキュリティの透明性と監査可能性が求められる現状に応える重要な証拠となる。オープンソースGenAIの企業利用は、コスト効率、カスタマイズ性、責任あるAIガバナンスの観点から、今後さらに進展が見込まれる。

Related Links