HyperAIHyperAI

Command Palette

Search for a command to run...

自己注意機構を永続記憶で強化する

Sainbayar Sukhbaatar Edouard Grave Guillaume Lample Herve Jegou Armand Joulin

概要

トランスフォーマー・ネットワークは、言語モデルと機械翻訳において重要な進歩をもたらしました。これらのモデルには、フィードフォワード層と自己注意層の2つの連続したモジュールが含まれています。後者により、ネットワークは長期依存関係を捉えることができ、トランスフォーマーの成功の鍵となる要素としてしばしば評価されています。この直感に基づいて、私たちは注目層のみから構成される新しいモデルを提案します。より具体的には、自己注意層に持続的なメモリベクトルを追加し、これらはフィードフォワード層と同様の役割を果たします。これらのベクトルのおかげで、トランスフォーマーの性能を低下させることなくフィードフォワード層を取り除くことができます。私たちの評価では、標準的な文字レベルおよび単語レベルの言語モデリングベンチマークにおいて、提案モデルがもたらす利点が示されています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています