HyperAIHyperAI

Command Palette

Search for a command to run...

対抗的サンプルの説明と活用

Ian J. Goodfellow; Jonathon Shlens; Christian Szegedy

概要

いくつかの機械学習モデル、特にニューラルネットワークは、敵対的サンプル(データセットの例に小さなが意図的に最悪な摂動を加えて形成された入力)を一貫して誤分類する傾向がある。これらの摂動が加えられた入力は、モデルが高確信で誤った答えを出力させる結果となる。この現象の初期的な説明では、非線形性と過学習に焦点が当てられていた。しかし、我々はニューラルネットワークが敵対的摂動に対して脆弱である主な原因はその線形性にあると主張する。この説明は新しい定量的な結果によって支持されており、それらについて最も興味深い事実である「アーキテクチャや訓練セットを超えた一般化」の最初の説明を提供している。さらに、この見解に基づく方法は、敵対的サンプルを生成するための単純かつ高速な手段を提供する。この手法を使用して敵対的訓練を行うことで、MNISTデータセットにおけるマックスアウトネットワークのテストセットエラーを低減させた。注:「maxout network」(マックスアウトネットワーク)、「MNIST dataset」(MNISTデータセット)などの専門用語については一般的な日本語訳を使用しました。「adversarial examples」(敵対的サンプル)、「adversarial perturbation」(敵対的摂動)なども同様です。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています