Command Palette

Search for a command to run...

4ヶ月前

トレーナブルな表現プーリングを用いたTransformerモデルのスパース化

{Anonymous}

要約

我々は、Transformerモデルにおけるアテンションの疎化を、学習過程において最も情報量の多いトークン表現を選択する新たな手法により実現する。これにより、入力データのタスク固有の部分に注目することができる。堅牢なトレーナブルなtop-kkk演算子の導入により、時間およびメモリ複雑度を二次関数的から部分線形にまで削減した。困難な長文要約タスクにおける実験結果から、単純なベースラインでも現在の最先端(SOTA)と同等の性能を達成でき、トレーナブルなプーリングを導入することでその高い品質を維持しつつ、学習時には1.8倍、推論時には4.5倍高速化され、デコーダーにおける計算効率は最大で13倍向上することが明らかになった。

ベンチマーク

ベンチマーク方法論指標
document-summarization-on-arxivDeepPyramidion
ROUGE-1: 47.15
document-summarization-on-arxiv-summarizationDeepPyramidion
Rouge-2: 19.99
text-summarization-on-arxivDeepPyramidion
ROUGE-1: 47.15
ROUGE-2: 19.99
text-summarization-on-arxivBlockwise(baseline)
ROUGE-1: 46.85
ROUGE-2: 19.39

AI で AI を構築

アイデアからローンチまで — 無料の AI 共同コーディング、すぐに使える環境、最適価格の GPU で AI 開発を加速。

AI 共同コーディング
すぐに使える GPU
最適価格
今すぐ始める

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
トレーナブルな表現プーリングを用いたTransformerモデルのスパース化 | 論文 | HyperAI超神経