【24h】

Language Modeling with Shared Grammar

机译:共享语法的语言建模

获取原文

摘要

Sequential recurrent neural networks have achieved superior performance on language modeling, but overlook the structure information in natural language. Recent works on structure-aware models have shown promising results on language modeling. However, how to incorporate structure knowledge on corpus without syntactic annotations remains an open problem. In this work, we propose neural variational language model (NVLM). which enables the sharing of grammar knowledge among different corpora. Experimental results demonstrate the effectiveness of our framework on two popular benchmark datasets. With the help of shared grammar, our language model converges significantly faster to a lower perplexity on new training corpus.
机译:顺序递归神经网络在语言建模方面取得了卓越的性能,但是却忽略了自然语言中的结构信息。关于结构感知模型的最新工作已在语言建模方面显示出令人鼓舞的结果。然而,如何在没有语法注释的情况下将结构知识纳入语料库仍然是一个悬而未决的问题。在这项工作中,我们提出了神经变异语言模型(NVLM)。这样可以在不同语料库之间共享语法知识。实验结果证明了我们的框架在两个流行的基准数据集上的有效性。在共享语法的帮助下,我们的语言模型在新的训练语料库上可以更快地收敛到较低的困惑度。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号