您现在的位置: 首页> 研究主题> 自然梯度

自然梯度

自然梯度的相关文献在1987年到2022年内共计84篇,主要集中在无线电电子学、电信技术、自动化技术、计算机技术、电工技术 等领域,其中期刊论文72篇、会议论文3篇、专利文献32908篇;相关期刊62种,包括经济研究参考、中小企业管理与科技、河北民族师范学院学报等; 相关会议3种,包括第十一届全国青年通信学术会议、中国声学学会水声分会2004年学术会议、2003年通信理论与信号处理年会等;自然梯度的相关文献由191位作者贡献,包括吕淑平、张成、何文雪等。

自然梯度—发文量

期刊论文>

论文:72 占比:0.22%

会议论文>

论文:3 占比:0.01%

专利文献>

论文:32908 占比:99.77%

总计:32983篇

自然梯度—发文趋势图

自然梯度

-研究学者

  • 吕淑平
  • 张成
  • 何文雪
  • 刘全
  • 张伟涛
  • 张贤达
  • 朱孝龙
  • 李宏伟
  • 楼顺天
  • 王法松
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

    • 庞传军; 尚学伟; 张波; 余建明
    • 摘要: 随着风电大规模接入电网,风电功率概率预测的需求愈加迫切。为了实现短期风电功率概率分布预测,提出了一种基于改进梯度提升算法的短期风电功率概率预测方法。首先,分析了梯度提升算法应用于短期风电功率概率预测存在的问题。其次,利用负对数似然损失函数作为梯度提升算法中的损失函数,并利用费希尔信息矩阵修正损失函数在概率分布参数空间的梯度,将其转换为概率分布空间的自然梯度。然后,基于自然梯度提出适用于短期风电功率概率分布预测的改进梯度提升算法。最后,将所提算法与传统的梯度提升算法和其他算法进行对比,结果显示,所提算法训练过程收敛较快并且具有较好的预测性能,验证了其实用性和有效性。
    • 陈亚瑞; 秦智飞
    • 摘要: 对于主组件分析模型,传统方法利用特征值分解的方法求解,其计算复杂度为O(ND2),其中N表示数据规模,D表示数据的维度.概率主组件分析是从概率的角度理解主组件分析模型,此时可以使用期望最大化算法迭代求解,其计算复杂度为O(NDM),其中M表示选取的维度,对于大规模高维数据可有效提高模型效率.但是,在参数更新过程中,概率主组件模型的期望最大化算法需要遍历整个数据集才能更新一次参数,参数更新较慢,同时该算法很难扩展到大规模数据集.本文提出基于自然梯度的概率主组件分析在线学习算法,通过结合概率主组件分析的自然梯度,实现在线增量学习模型.进一步将降维后的数据通过全连接神经网络进行分类,并通过实验证明,该方法在降维效果及算法运行效率上有明显提高.
    • 季艳秋; 卢志义
    • 摘要: 指出了许多无监督或半监督机器学习算法依赖于贝叶斯概率模型,这些模型中参数的后验分布通常难以计算.VI是一种通过优化算法近似后验密度的统计推断方法.VI与机器学习方法相结合,可为大数据分析提供新的思路和方法.在对VI的产生和发展进行回顾的基础上,介绍了VI中经典的平均场理论和相应的坐标上升算法,以及将VI拓展到大数据分析领域的SVI算法,并对VI的发展前景进行了分析,对VI中一些衡量指标以及独立性假设进行了改进,提出了VI与统计学方法的结合将成为未来的研究方向.
    • 塞拉斯; 许皓; 宋扬; 孙华飞
    • 摘要: 利用信息几何中的统计流形理论和自然梯度流形学习定位方法,研究了基于接收信号强度(RSS)的无线传感器网络自定位问题.首先,通过概率密度函数构造了一个曲指数族定位模型;然后,针对给定初始状态值的未知目标节点定位问题,结合梯度下降法,提出了基于此模型的最优非线性估计方法及其改进算法.梯度下降法的良好性质和仿真结果表明,这些算法有很好的收敛效果和更高的定位精度.
    • 钟珊; 刘全; 傅启明; 龚声蓉; 董虎胜
    • 摘要: 行动器评判器(Actor Critic,简称AC)算法是强化学习连续动作领域的一类重要算法,其采用独立的结构表示策略,但更新策略时需要大量样本导致样本效率不高.为了解决该问题,提出了基于模型学习和经验回放加速的正则化自然AC算法(Regularized Natural AC with Model Learning and Experience Replay,简称RNAC-ML-ER).RNAC-ML-ER将Agent与环境在线交互产生的样本用于学习系统动态性对应的线性模型和填充经验回放存储器.将线性模型产生的模拟样本和经验回放存储器中存储的样本作为在线样本的补充,实现值函数、优势函数和策略的更新.为了提高更新的效率,在每个时间步,仅当模型的预测误差未超过阈值时才利用该模型进行规划,同时根据TD-error从大到小的顺序对经验回放存储器中的样本进行回放.为了降低策略梯度估计的方差,引入优势函数参数向量对优势函数进行线性近似,在优势函数的目标函数中加入(l)2-范数进行正则化,并通过优势函数参数向量来对策略梯度更新,以促进优势函数和策略的收敛.在指定的两个假设成立的条件下,通过理论分析证明了所提算法RNAC-ML-ER的收敛性.在4个强化学习的经典问题即平衡杆、小车上山、倒立摆和体操机器人中对RNAC-ML-ER算法进行实验,结果表明所提算法能在大幅提高样本效率和学习速率的同时保持较高的稳定性.
    • 朱斐; 朱海军; 刘全; 陈冬火; 伏玉琛
    • 摘要: 策略梯度作为一种能够有效解决连续空间决策问题的方法得到了广泛研究,但由于在策略估计过程中存在较大方差,因此,基于策略梯度的方法往往受到样本利用率低、收敛速度慢等限制.针对该问题,在行动者-评论家(actor-critic,简称AC)算法框架下,提出了真实在线增量式自然梯度AC(true online incremental natural actor-critic,简称TOINAC)算法.TOINAC算法采用优于传统梯度的自然梯度,在真实在线时间差分(true online time difference,简称TOTD)算法的基础上,提出了一种新型的前向观点,改进了自然梯度行动者-评论家算法.在评论家部分,利用TOTD算法高效性的特点来估计值函数;在行动者部分,引入一种新的前向观点来估计自然梯度,再利用资格迹将自然梯度估计变为在线估计,提高了自然梯度估计的准确性和算法的效率.将TOINAC算法与核方法以及正态策略分布相结合,解决了连续空间问题.最后,在平衡杆、Mountain Car以及Acrobot等连续问题上进行了仿真实验,验证了算法的有效性.%Policy gradient methods have been extensively studied as a solution to the continuous space control problem.However,due to the presence of high variance in the gradient estimation,policy gradient based methods are restricted by low sample data utilization and slow convergence.Aiming at solving this problem,utilizing the framework of actor-critic algorithm,a true online incremental natural actor-critic (TOINAC) algorithm,which takes advantage of the natural gradient that is superior to conventional gradient,and is based on true online time difference (TOTD),is proposed.In the critic part of TOINAC algorithm,the efficiency of TOTD is adopted to estimate the value function,and in the actor part of TOINAC algorithm,a novel forward view is introduced to compute and estimate natural gradient.Then,eligibility traces are utilized to turn natural gradient into online estimation,thereby improving the accuracy of natural gradient and efficiency of the method.The TOINAC algorithm is used to integrate with the kernel method and normal distribution policy to tackle the continuous space problem.The simulation tests on cart pole,Mountain Car and Acrobot,which are classical benchmark tests for continuous space problem,verify the effeteness of the algorithm.
    • 张天骐; 马宝泽; 强幸子; 全盛荣
    • 摘要: A variable-step blind source separation algorithm based on the natural gradient with adaptive momentum factor was proposed,which could cope with the determined blind source separation in the environment of stationary and non-stationary.Function estimation mixed matrix was constructed by performance index.The estimated performance index was obtained by the estimated mixed matrix,and the constructor was updated by the estimated performance index.Then,the constructor was plugged with appropriate experienced parameter into the proposed algorithm and step and momentum factor was adaptively adjusted.Finally,the estimation source signals could be obtained.Simulations show that the proposed algorithm is effective to estimate the mixed matrix in the stationary and non-stationary environments,and the proposed algorithm has faster convergence speed and lower steady error as well as separates source signals effectively%基于自然梯度算法提出一种带自适应动量因子的变步长盲源分离方法,在平稳和非平稳环境下进行正定盲源分离处理.该方法利用性能指标构造函数来估计混合矩阵,依据估计混合矩阵得出估计性能指标再反馈更新构造函数;然后将选取合适经验参数的构造函数代入算法,同时自适应调整算法步长和动量因子;最终得到估计源信号.仿真表明该方法在平稳和非平稳环境下都可以估计出混合矩阵,能有效分离混合信号且收敛速度快稳态误差小.
    • 章鹏; 刘全; 钟珊; 翟建伟; 钱炜晟
    • 摘要: 针对强化学习中已有连续动作空间算法未能充分考虑最优动作的选取方法和利用动作空间的知识,提出一种对自然梯度进行改进的行动者评论家算法.该算法采用最大化期望回报作为目标函数,对动作区间上界和下界进行加权来求最优动作,然后通过线性函数逼近器来近似动作区间上下界的权值,将最优动作求解转换为对双策略参数向量的求解.为了加快上下界的参数向量学习速率,设计了增量的Fisher信息矩阵和动作上下界权值的资格迹,并定义了双策略梯度的增量式自然行动者评论家算法.为了证明该算法的有效性,将该算法与其他连续动作空间的经典强化学习算法在3个强化学习的经典测试实验中进行比较.实验结果表明,所提算法具有收敛速度快和收敛稳定性好的优点.%The existed algorithms for continuous action space failed to consider the way of selecting optimal action and utilizing the knowledge of the action space,so an efficient actor-critic algorithm was proposed by improving the natural gradient.The objective of the proposed algorithm was to maximize the expected return.Upper and the lower bounds of the action range were weighted to obtain the optimal action.The two bounds were approximated by linear function.Afterward,the problem of obtaining the optimal action was transferred to the learning of double policy parameter vectors.To speed the learning,the incremental Fisher information matrix and the eligibilities of both bounds were designed.At three reinforcement learning problems,compared with other representative methods with continuous action space,the simulation results show that the proposed algorithm has the advantages of rapid convergence rate and high convergence stability.
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号