首页> 外文会议>Conference on empirical methods in natural language processing >Neural Headline Generation on Meaning Representation
【24h】

Neural Headline Generation on Meaning Representation

机译:意义表示的神经标题生成

获取原文

摘要

Neural network-based encoder-decoder models are among recent attractive methodologies for tackling natural language generation tasks. This paper investigates the usefulness of structural syntactic and semantic information additionally incorporated in a baseline neural attention-based model. We encode results obtained from an meaning representation (AMR) parser using a modified version of Tree-LSTM. Our proposed attention-based AMR encoder-decoder model improves headline generation benchmarks compared with the baseline neural attention-based model.
机译:基于神经网络的编码器 - 解码器模型是最近用于解决自然语言生成任务的最近有吸引力的方法。本文研究了结构句法和语义信息另外纳入基于基于基于基于基于基于基于基于基于基于基于基于基于神经关注的模型的有用性。我们使用Dreat版本的Tree-LSTM从含义表示(AMR)解析器获得的结果编码。我们提出的基于关注的AMR编码器 - 解码器模型可以改善与基于基于基于基线神经关注的模型相比的标题生成基准。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号