2ヶ月前

拡張再帰ニューラルネットワーク

Shiyu Chang; Yang Zhang; Wei Han; Mo Yu; Xiaoxiao Guo; Wei Tan; Xiaodong Cui; Michael Witbrock; Mark Hasegawa-Johnson; Thomas S. Huang
拡張再帰ニューラルネットワーク
要約

長序列での再帰型ニューラルネットワーク(RNN)の学習は、非常に難しい課題として知られています。その主な難しさは以下の3点に集約されます:1) 複雑な依存関係、2) 勾配消失と勾配爆発、3) 効率的な並列化です。本論文では、これらの課題を同時に解決する単純かつ効果的なRNN接続構造であるDilatedRNNを提案します。提案されたアーキテクチャは、多分解能の拡張再帰スキップ接続を特徴とし、さまざまなRNNセルと柔軟に組み合わせることができます。さらに、DilatedRNNは必要なパラメータ数を削減し、学習効率を大幅に向上させつつ、非常に長期的な依存関係が関わるタスクにおいて最先端の性能(標準的なRNNセルを使用しても)を達成します。理論に基づいたアーキテクチャの優位性の定量評価を行うために、既存の指標よりも長距離スキップ接続を持つRNNに適した記憶容量測定値である平均再帰長さという指標を導入します。私たちは厳密に証明を行い、DilatedRNNが他の再帰型ニューラルアーキテクチャに対して持つ優位性を示しました。当該手法のコードは公開されており、https://github.com/code-terminator/DilatedRNN からアクセスできます。

拡張再帰ニューラルネットワーク | 最新論文 | HyperAI超神経