HyperAIHyperAI

Command Palette

Search for a command to run...

Transformersの再帰的に構成された多粒度表現による強化

Xiang Hu Qingyang Zhu Kewei Tu Wei Wu

概要

私たちはReCAT(Recursive Composition Augmented Transformer)を提案します。これは、学習と推論の両段階でゴールドツリーに依存せずに、生テキストの階層的な構文構造を明示的にモデル化できるTransformerです。既存の研究では、データが階層的な木構造に従うことが制約されており、そのためスパン間の通信が欠けています。この問題を克服するために、私たちは新しいコンテクスト付きインサイドアウトサイド(CIO)レイヤーを提案します。このレイヤーは、ボトムアップとトップダウンのパスを通じてスパンのコンテクスト化された表現を学習します。ボトムアップパスでは、低レベルのスパンから高レベルのスパンの表現を形成し、トップダウンパスでは、スパン内とスパン外の情報を組み合わせます。Transformer内の埋め込み層と注意層の間に複数のCIOレイヤーを積み重ねることにより、ReCATモデルは深層スパン内相互作用と深層スパン間相互作用を行うことができ、他のスパンとの完全なコンテクスト化された多粒度表現を生成します。さらに、CIOレイヤーはTransformersと共に事前学習することができるので、ReCATは拡張能力、高性能性、解釈可能性を同時に享受できます。私たちは様々な文レベルおよびスパンレベルタスクに対して実験を行いました。評価結果は、ReCATがすべてのスパンレベルタスクにおいて単純なTransformerモデルを大幅に上回り、また自然言語推論タスクにおいて再帰ネットワークとTransformerを組み合わせたベースラインも上回っていることを示しています。より興味深いことに、ReCATによって誘導される階層構造は人間が注釈した構文木と強い一貫性を持ち、CIOレイヤーによってもたらされる良好な解釈可能性を示唆しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています