首页> 外文期刊>Asymptotic analysis >On the fast convergence of random perturbations of the gradient flow
【24h】

On the fast convergence of random perturbations of the gradient flow

机译:关于梯度流动随机扰动的快速收敛性

获取原文
获取原文并翻译 | 示例
           

摘要

We consider in this work small random perturbations (of multiplicative noise type) of the gradient flow. We prove that under mild conditions, when the potential function is a Morse function with additional strong saddle condition, the perturbed gradient flow converges to the neighborhood of local minimizers in O ( ln ( ε − 1 ) ) time on the average, where ε is the scale of the random perturbation. Under a change of time scale, this indicates that for the diffusion process that approximates the stochastic gradient method, it takes (up to logarithmic factor) only a linear time of inverse stepsize to evade from all saddle points. This can be regarded as a manifestation of fast convergence of the discrete-time stochastic gradient method, the latter being used heavily in modern statistical machine learning.
机译:我们考虑在这项工作中的小随机扰动(乘法噪声类型)的梯度流。 我们证明,在温和的条件下,当潜在功能是莫尔斯函数具有额外的强大的鞍状状态时,扰动梯度流量会收敛于o(ln(ε-1))时间的局部最小化器的邻域,其中ε是ε是 随机扰动的比例。 在时间尺度的变化下,这表明对于近似于随机梯度方法的扩散过程,它需要(最多到对数因子)仅是从所有鞍点避开的线性时间。 这可以被认为是自由时间随机梯度法的快速收敛性的表现,后者在现代统计机器学习中使用。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号