HyperAIHyperAI

Command Palette

Search for a command to run...

クエリベースの adversarial 攻撃に対するランダム化特徴防御のロバスト性の理解

Quang H. Nguyen Yingjie Lao Tung Pham Kok-Seng Wong Khoa D. Doan

概要

近年の研究では、深層ニューラルネットワークが、元の画像に非常に近いがモデルを誤分類させるような adversarial examples(敵対的サンプル)に対して脆弱であることが示されている。モデルの出力のみを入手可能な状況下でも、攻撃者はブラックボックス攻撃を用いてこうした敵対的サンプルを生成可能である。本研究では、推論時におけるモデルの中間層の隠れ特徴にランダムノイズを追加するという、シンプルかつ軽量なブラックボックス攻撃に対する防御手法を提案する。理論的分析により、この手法がスコアベースおよび意思決定ベースの両方のブラックボックス攻撃に対して、モデルの耐性を有効に向上させることを確認した。特に、本防御は敵対的訓練を必要とせず、精度への影響が極めて小さいため、あらゆる事前学習済みモデルに適用可能である。また、攻撃の過程で変化する敵対的目的関数の勾配に基づいて、モデルの異なる部分にノイズを選択的に加えることが重要であることも明らかになった。多様なアーキテクチャを持つ複数のモデルを用いた広範な実験を通じて、本防御が複数のブラックボックス攻撃に対して高いロバスト性を示すことを実証した。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
クエリベースの adversarial 攻撃に対するランダム化特徴防御のロバスト性の理解 | 記事 | HyperAI超神経