首页> 外国专利> JOINT MANY-TASK NEURAL NETWORK MODEL FOR MULTIPLE NATURAL LANGUAGE PROCESSING (NLP) TASKS

JOINT MANY-TASK NEURAL NETWORK MODEL FOR MULTIPLE NATURAL LANGUAGE PROCESSING (NLP) TASKS

机译:多种自然语言处理(NLP)任务的联合多任务神经网络模型

摘要

The technology disclosed provides a so-called “joint many-task neural network model” to solve a variety of increasingly complex natural language processing (NLP) tasks using growing depth of layers in a single end-to-end model. The model is successively trained by considering linguistic hierarchies, directly connecting word representations to all model layers, explicitly using predictions in lower tasks, and applying a so-called “successive regularization” technique to prevent catastrophic forgetting. Three examples of lower level model layers are part-of-speech (POS) tagging layer, chunking layer, and dependency parsing layer. Two examples of higher level model layers are semantic relatedness layer and textual entailment layer. The model achieves the state-of-the-art results on chunking, dependency parsing, semantic relatedness and textual entailment.
机译:所公开的技术提供了所谓的“联合多任务神经网络模型”,以使用单个端到端模型中不断增加的层深度来解决各种日益复杂的自然语言处理(NLP)任务。通过考虑语言层次结构,直接将单词表示形式连接到所有模型层,显式使用较低任务中的预测以及应用所谓的“成功正则化”技术来防止灾难性遗忘,对模型进行了连续训练。较低层模型层的三个示例是词性(POS)标记层,分块层和依赖项解析层。高层模型层的两个示例是语义相关性层和文本蕴含层。该模型获得了有关分块,依赖性分析,语义相关性和文本蕴含性的最新结果。

著录项

  • 公开/公告号EP3535701A1

    专利类型

  • 公开/公告日2019-09-11

    原文格式PDF

  • 申请/专利权人 SALESFORCE.COM INC.;

    申请/专利号EP20170800683

  • 申请日2017-11-03

  • 分类号G06N3/04;G10L15/16;G10L15/18;G10L25/30;G06F17/20;

  • 国家 EP

  • 入库时间 2022-08-21 12:29:56

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号