【24h】

Learning Topic-Sensitive Word Representations

机译:学习主题敏感的单词表示

获取原文

摘要

Distributed word representations are widely used for modeling words in NLP tasks. Most of the existing models generate one representation per word and do not consider different meanings of a word. We present two approaches to learn multiple topic-sensitive representations per word by using Hierarchical Dirichlet Process. We observe that by modeling topics and integrating topic distributions for each document we obtain representations that are able to distinguish between different meanings of a given word. Our models yield statistically significant improvements for the lexical substitution task indicating that commonly used single word representations, even when combined with contextual information, are insufficient for this task.
机译:分布式单词表示法广泛用于NLP任务中的单词建模。大多数现有模型都为每个单词生成一个表示,并且没有考虑单词的不同含义。我们提出了两种使用分层Dirichlet过程来学习每个单词多个主题敏感表示的方法。我们观察到,通过对每个文档进行主题建模和集成主题分布,我们可以获得能够区分给定单词的不同含义的表示形式。我们的模型对词汇替换任务产生了统计上的显着改进,表明即使与上下文信息结合使用,常用的单个单词表示形式也不足以完成此任务。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号