首页> 外文会议>Information Theory, 1998. Proceedings. 1998 IEEE International Symposium on >Parameter convergence and learning curves for neural networks
【24h】

Parameter convergence and learning curves for neural networks

机译:神经网络的参数收敛和学习曲线

获取原文

摘要

We revisit the oft-studied asymptotic (in sample size) behavior ofthe parameter or weight estimate returned by any member of a largefamily of neural network training algorithms. By properly accounting forthe characteristic property of neural networks that their empirical andgeneralization errors possess multiple minima, we establish conditionsunder which the parameter estimate converges strongly into the set ofminima of the generalization error. These results are then used toderive learning curves for generalization and empirical errors thatleads to bounds on rates of convergence
机译:我们回顾了经常研究的渐近(以样本量为单位)的行为 大型机构的任何成员返回的参数或权重估算值 神经网络训练算法家族。通过适当考虑 神经网络的特性,经验和 泛化错误具有多个极小值,我们建立了条件 在这种情况下,参数估计会强烈收敛到的集合中 泛化误差的最小值。然后将这些结果用于 得出关于归纳和经验误差的学习曲线 导致收敛速度的界限

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号