要約
本稿では、人工ニューラルネットワーク(ANN)モデルにおける特徴量の相対的重要性を測定するための新しい手法を提案する。この手法の基本的な考え方は、ある特徴量が重要であるほど、その対応する入力ニューロンに接続された重みがモデルの学習過程においてより大きく変化するというものである。この挙動を捉えるために、学習中に入力層に接続される各重みの動的分散(running variance)を測定する。そのために、オンライン分散を計算するためのWelfordのオンラインアルゴリズムを適応した手法を提案する。学習が終了した後、各入力に対して、重みの分散と最終的な重みを組み合わせることで、各特徴量の相対的重要性を評価する指標を算出する。この手法は、複数の有名な分類および回帰問題に対して、浅層および深層のニューラルネットワークアーキテクチャを用いて検証された。得られた結果は、本手法が意味のある測定を可能にしていることを確認した。さらに、重要度スコアがランダムフォレスト(RF)における変数重要度評価法と高い相関関係を示したことも明らかになった。