
コンピュータビジョンにおける説明はしばしば求められるが、大多数の深層ニューラルネットワークは信頼性に疑問を呈するサリエンシーマップしか提供できない。自己説明型ニューラルネットワーク(Self-Explaining Neural Networks, SENN)は、忠実性、多様性、および実世界との整合性(grounding)を兼ね備えた解釈可能な概念を抽出し、それらを線形に組み合わせて意思決定を行う。これにより、認識された内容を説明可能にするが、初期の実装では精度と汎用性に欠けるという課題があった。本研究では、量子化された自己説明型ニューラルネットワーク(Quantized-Self-Explaining Neural Network, Q-SENN)を提案する。Q-SENNはSENNの望ましい特性を満たすか、あるいはそれを上回りつつ、より複雑なデータセットへの適用が可能であり、解釈不能なベースラインモデルと比較して、ほとんどまたはすべての精度を維持する。さらに、評価されたすべての指標において、従来の手法を上回る性能を示す。Q-SENNは、クラスと特徴の関係を任意の数の関係ではなく、正(positive)、負(negative)、中立(neutral)のいずれかの二値的関係として定義することで、より人間にとって直感的でバイナリな特徴を強制する。平均して各クラスに5つの解釈可能な特徴が割り当てられるため、Q-SENNは明確な局所的およびグローバルな解釈性を実現している。さらに、追加の教師信号を必要とせずに、学習された特徴を人間の言語に基づく概念と整合させるための特徴アライメント手法を提案する。これにより、モデルが学習した内容をより容易に言語化することが可能となる。本研究のコードは公開されている:https://github.com/ThomasNorr/Q-SENN