17日前

代数的再結合による構成的汎化の学習

Chenyao Liu, Shengnan An, Zeqi Lin, Qian Liu, Bei Chen, Jian-Guang Lou, Lijie Wen, Nanning Zheng, Dongmei Zhang
代数的再結合による構成的汎化の学習
要約

ニューラル系列モデルは、意味解析タスクにおいて限定的な構成的汎化能力を示す。構成的汎化には代数的再結合(algebraic recombination)が求められる。すなわち、再帰的に構造化された式を動的に再結合する能力である。しかし、これまでの多くの研究は主に語彙単位の再結合に注目しており、これは代数的再結合の重要な側面ではあるが、十分な条件ではない。本論文では、構成的汎化のための代数的再結合を学習するエンドツーエンド型ニューラルモデル「LeAR(Learning Algebraic Recombination)」を提案する。本研究の核心的な洞察は、意味解析タスクを潜在的な構文代数と意味代数の間の準同型(homomorphism)として定式化することで、代数的再結合を促進することにある。具体的には、2つのモジュールを同時学習する:潜在構文を生成する「Composer」と、意味操作を割り当てる「Interpreter」である。2つの現実的かつ包括的な構成的汎化ベンチマークにおける実験により、本モデルの有効性が実証された。ソースコードは公開されており、https://github.com/microsoft/ContextualSP にて入手可能である。

代数的再結合による構成的汎化の学習 | 最新論文 | HyperAI超神経