2 个月前

带有探索的训练改进了贪婪的Stack-LSTM解析器

Miguel Ballesteros; Yoav Goldberg; Chris Dyer; Noah A. Smith
带有探索的训练改进了贪婪的Stack-LSTM解析器
摘要

我们对Dyer等人(2015)提出的贪婪Stack-LSTM依存句法分析器进行了改进,以支持使用动态预言机(Goldberg和Nivre,2013)的探索性训练过程,而不是最小化交叉熵。这种训练方法在训练过程中考虑了模型的预测结果,而不仅仅是假设动作历史无误,从而提高了英语和汉语的句法分析准确性,两种语言均取得了非常出色的结果。我们讨论了一些为使概率神经网络能够有效进行探索性训练所需的修改。

带有探索的训练改进了贪婪的Stack-LSTM解析器 | 最新论文 | HyperAI超神经