HyperAIHyperAI

Command Palette

Search for a command to run...

Transformers向けXAI:保守的伝播によるより優れた説明

Ameen Ali Thomas Schnake Oliver Eberle Grégoire Montavon Klaus-Robert Müller Lior Wolf

概要

Transformerは機械学習の重要な基盤技術となり、多岐にわたる応用が行われている。このような背景から、モデルの透明性を高める信頼性の高い手法の開発が不可欠となっている。これまでに、勾配情報に基づく多くの解釈可能性(interpretability)手法が提案されてきた。しかし本研究では、Transformerにおける勾配が入力特徴量の予測への寄与を局所的にしか反映しないこと、すなわち、特徴量の寄与を信頼性高く特定できないことを示した。その原因として、AttentionヘッドおよびLayerNormが主な要因であることを特定し、これらの層を通過する際の伝搬をより安定化する新たな手法を提案した。本研究で提示する手法は、広く確立されたLRP(Layer-wise Relevance Propagation)手法をTransformerに適切に拡張したものと捉えることができる。理論的・実証的な観点から、単純な勾配ベースのアプローチに見られる欠陥を克服し、幅広いTransformerモデルおよびデータセットにおいて、最先端の解釈性能を達成することが示された。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
Transformers向けXAI:保守的伝播によるより優れた説明 | 記事 | HyperAI超神経