首页> 中文会议>第十三届全国人机语音通讯学术会议 >人工神经网络语言模型的快速计算方法

人工神经网络语言模型的快速计算方法

摘要

基于深度神经网络(DNN)和递归神经网络(RNN)的语言模型(LM)在超大规模词汇量连续语音识别(ULVCSR)应用中极大的提高了识别性能.这类方法沉重的计算负担,却成为在实际产品应用中的障碍.其原因主要是ULVCSR的词表极大,导致DNN/RNN LM中归一化因子的计算量巨大,本文研究了一系列减少归一化因子计算量的方法.实验表明,本文所探讨的方法均可极大降低计算量,其中自归一化方法可以减少多达99.6%的计算量,同时几乎对识别精度不产生影响.

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号