2ヶ月前

グローバル・トゥ・ローカル メモリ ポインターネットワークを用いたタスク指向対話

Chien-Sheng Wu; Richard Socher; Caiming Xiong
グローバル・トゥ・ローカル メモリ ポインターネットワークを用いたタスク指向対話
要約

端から端までのタスク指向対話は、知識ベースが通常大規模で動的であり、学習フレームワークに組み込むのが難しいという課題を抱えています。本研究では、この問題に対処するためにグローバル・トゥ・ローカル・メモリ・ポインタ(GLMP)ネットワークを提案します。当モデルにおいて、外部知識の共有を目的としたグローバルメモリエンコーダとローカルメモリデコーダが導入されています。エンコーダは対話履歴を符号化し、グローバルな文脈表現を変更し、グローバルメモリポインタを生成します。一方、デコーダはまずスケッチ応答(未埋め込みスロット付き)を生成します。次に、グローバルメモリポインタを使用して関連情報をフィルタリングし、ローカルメモリポインタを通じてスロットをインスタンス化します。実証的に示した結果によれば、当モデルはコピー精度の向上と一般的な語彙外問題の軽減に寄与することが確認されました。その結果、GLMPはシミュレーションされたbAbIダイアログデータセットおよび人間同士のスタンフォードマルチドメインダイアログデータセットにおいて、自動評価および人間による評価の両面で従来の最先端モデルを超える性能を達成しています。

グローバル・トゥ・ローカル メモリ ポインターネットワークを用いたタスク指向対話 | 最新論文 | HyperAI超神経