首页> 中文学位 >基于混合神经网络的中文命名实体识别研究
【6h】

基于混合神经网络的中文命名实体识别研究

代理获取

目录

声明

第1章 引言

1.1 研究背景及意义

1.2 研究现状

1.2.1 基于规则的方法

1.2.2 基于机器学习的方法

1.2.3 基于深度学习的方法

1.2.4 中文命名实体识别方法现有不足

1.3 本文的主要研究工作

1.4 本文的组织结构

第2章 命名实体识别概述及相关技术

2.1 命名实体识别任务概述

2.2 相关技术

2.2.1 编码解码框架

2.2.2 注意力机制

2.2.3 词嵌入技术

2.2.4 卷积神经网络

2.2.5 softmax函数

2.3 本文模型框架

2.4 本章小节

第3章 基于完全自注意力与多元卷积的中文命名实体识别

3.1Fully Self-Attentive Encoder完全自注意力编码模型

3.1.1Fully Self-Attentive Encoder模型提出动机

3.1.2 Fully Self-Attentive Encoder结构

3.1.3 Self-Attention Mechanism运行机制

3.2 多元卷积解码层

3.2.1 使用多元卷积解码的动机

3.2.2 多元卷积解码框架

3.2.3 多元卷积解码机制

3.3 基于二分类的多损失函数训练方法

3.3.1 使用基于二分类的多损失函数动机

3.3.2 二分类与多分类在命名实体识别上的运用

3.3.3 基于二分类与多分类的多任务训练机制

3.4 本章小节

第4章 基于位置意识传播机制的字编码方式

4.1 位置意识传播字编码机制

4.1.1 使用位置意识传播字编码机制的动机

4.1.2 使用高斯核函数模拟传播影响力的动机

4.1.3 基于高斯核函数的位置意识收敛传播

4.1.4 基于高斯核函数的位置意识辐射传播

4.2 基于分词的联合学习模型

4.2.1 使用中文分词与命名实体识别联合学习模型的动机

4.2.2 中文分词与命名实体识别字嵌入层联合学习模型框架

4.2.3 中文分词与命名实体识别编码层拼接联合学习模型框架

4.3 本章小节

第5章 实验

5.1 实验数据处理

5.1.1 标注方法

5.1.2 实验数据处理与分析

5.2 评价指标

5.3 本文提出模型框架效果评测

5.3.1 优化器与学习率设定

5.3.2 完全自注意力编码模型参数调整对比

5.3.3 增加多元卷积解码模型结果对比

5.3.4 增加位置意识传播字编码模型结果对比

5.4 字序列输入模型框架效果评测

5.4.1 基于字序列输入模型算法结果对比

5.4.2 数据与字信息扩充的字序列模型对比

5.4.3 模型推断效率比较

5.5 二分类与分词联合学习训练分析

5.5.1二分类多损函数训练实验

5.5.2 中文分词联合学习训练实验

5.6 基于词序列与小训练集的中文命名实体识别模型效果评测

5.6.1 多种词序列输入方法模型效果对比

5.6.2 小训练集模型效果对比

5.7 本章小结

第6章 总结与展望

6.1 总结

6.2 展望

参考文献

攻读学位期间取得的研究成果

致谢

展开▼

著录项

  • 作者

    汪浩文;

  • 作者单位

    上海师范大学;

  • 授予单位 上海师范大学;
  • 学科 计算机应用技术
  • 授予学位 硕士
  • 导师姓名 张波;
  • 年度 2020
  • 页码
  • 总页数
  • 原文格式 PDF
  • 正文语种 chi
  • 中图分类 U65TP3;
  • 关键词

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号