首页> 外文会议>International conference on computational linguistics >Multi-view and multi-task training of RST discourse parsers
【24h】

Multi-view and multi-task training of RST discourse parsers

机译:RST语篇解析器的多视图和多任务训练

获取原文

摘要

We experiment with different ways of training LSTM networks to predict RST discourse trees. The main challenge for RST discourse parsing is the limited amounts of training data. We combat this by regularizing our models using task supervision from related tasks as well as alternative views on discourse structures. We show that a simple LSTM sequential discourse parser takes advantage of this multi-view and multi-task framework with 12-15% error reductions over our baseline (depending on the metric) and results that rival more complex state-of-the-art parsers.
机译:我们尝试了多种训练LSTM网络的方法来预测RST话语树。 RST语篇解析的主要挑战是训练数据量有限。我们通过使用来自相关任务的任务监督以及对话语结构的替代观点来规范化我们的模型,来应对这一问题。我们表明,一个简单的LSTM顺序语篇解析器利用了这种多视图和多任务框架,与我们的基准相比,错误减少了12-15%(取决于度量标准),其结果可与更复杂的最新技术相媲美解析器。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号