HyperAIHyperAI

Command Palette

Search for a command to run...

タスク固有の木構造を学習する

Jihun Choi; Kang Min Yoo; Sang-goo Lee

概要

長年にわたり、再帰型ニューラルネットワーク(RvNNs)はテキストを固定長のベクトルに表現するのに適しており、いくつかの自然言語処理タスクで良好な性能を示してきました。しかし、RvNNsの主な欠点は構造化された入力データが必要であることです。これにより、データ準備とモデル実装が難しくなります。本論文では、Gumbel Tree-LSTMと呼ばれる新しい木構造を持つ長期短期記憶(LSTM)アーキテクチャを提案します。このモデルは、平文データから効率的にタスク固有の木構造を学習します。当モデルは、候補の中から親ノードを選択し、離散的な決定の勾配を計算するためにStraight-Through Gumbel-Softmax推定器を使用します。提案したモデルを自然言語推論と感情分析のタスクで評価し、当モデルが従来のモデルに匹敵または優れた性能を示すことを示しました。また、当モデルが他のモデルよりも著しく高速に収束することも確認しました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
タスク固有の木構造を学習する | 記事 | HyperAI超神経