首页> 外文OA文献 >微分相関型モデルの連想記憶における記憶容量の検討
【2h】

微分相関型モデルの連想記憶における記憶容量の検討

机译:检验微分相关模型关联存储器中的存储器容量

摘要

連想記憶の分野は、記憶する系列パターンと記憶内容あるいは認識結果の対応付けが定型化しにくいことから、連想記憶の研究はあまりなされていない。本研究では,学習モデルは積結合モデルの微分相関型モデルを用いて連想記憶を実現し、固定系列パターンを記憶する。しかし固定系列パターンをそのまま記憶した場合は、記憶容量が少ない。そこで、記憶枚数の合計が奇数の場合はロジスティックマスキング、偶数の場合はマスキング系列パターンの挿入を提案し、連想記憶のシミュレーションにより、記憶容量と想起の関係性について考察した。結果、マスキング手法が記憶容量の増加に有用であることを示した。
机译:在关联存储器领域中,难以形成所存储的序列模式与所存储的内容之间的关联或识别结果,因此尚未对关联存储器进行过多的研究。在本研究中,学习模型通过使用产品组合模型的微分相关模型实现关联记忆,并存储固定的序列模式。但是,如果按原样存储固定序列模式,则存储容量较小。因此,我们提出了在存储器总数为奇数时的逻辑掩蔽,在存储器总数为偶数时插入掩蔽序列模式,并通过关联存储器的仿真研究了存储器容量与召回率之间的关系。结果,我们表明屏蔽方法对于增加存储容量很有用。

著录项

  • 作者

  • 作者单位
  • 年度 2015
  • 总页数
  • 原文格式 PDF
  • 正文语种 JPN
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号