HyperAIHyperAI

Command Palette

Search for a command to run...

グラフ畳み込みがトランスフォーマーの自己注意を豊かにする!

Jeongwhan Choi Hyowon Wi Jayoung Kim Yehjin Shin Kookjin Lee Nathaniel Trask Noseong Park

概要

トランスフォーマーは、自己注意機構で知られており、自然言語処理、コンピュータビジョン、時系列モデリングなど、さまざまなタスクにおいて最先端の性能を達成しています。しかし、深層トランスフォーマーモデルにおける課題の一つは、オーバースムージング問題です。この問題では、層間での表現が区別不能な値に収束し、性能が大幅に低下します。私たちは元の自己注意機構を単純なグラフフィルターとして解釈し、グラフ信号処理(GSP)の観点から再設計を行いました。私たちは一般化されかつ効果的なグラフフィルターに基づく自己注意機構(GFSA)を提案します。ただし、GFSAの複雑さは元の自己注意機構よりもやや大きいです。私たちはGFSAがコンピュータビジョン、自然言語処理、グラフレベルのタスク、音声認識、コード分類などのさまざまな分野でトランスフォーマーの性能を向上させることを示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
グラフ畳み込みがトランスフォーマーの自己注意を豊かにする! | 記事 | HyperAI超神経