首页> 中国专利> 一种机器人力控示教模仿学习的装置及方法

一种机器人力控示教模仿学习的装置及方法

摘要

本发明属于机器人智能控制相关技术领域,其公开了一种机器人力控示教模仿学习的装置,其包括六自由度并联示教机器人、第一六维力传感器、第二六维力传感器、六自由度操作机器人及力位采样控制系统,所述第一六维力传感器设置在所述六自由度并联示教机器人的末端执行器上,其用于感测所述六自由度并联示教机器人受到的驱动力;所述第二六维力传感器设置在所述六自由度操作机器人的末端执行器上,其用于感测所述六自由度操作机器人末端的接触力;所述力位采样控制系统分别电性连接于所述六自由度并联示教机器人及所述六自由度操作机器人,其用于采集所述接触力及所述驱动力以实施力参考阻抗控制。本发明还涉及机器人力控示教模仿学习的方法。

著录项

  • 公开/公告号CN106938470A

    专利类型发明专利

  • 公开/公告日2017-07-11

    原文格式PDF

  • 申请/专利权人 华中科技大学;

    申请/专利号CN201710174598.X

  • 发明设计人 赵欢;张越;丁汉;

    申请日2017-03-22

  • 分类号B25J19/00(20060101);B25J13/00(20060101);

  • 代理机构42201 华中科技大学专利中心;

  • 代理人曹葆青;李智

  • 地址 430074 湖北省武汉市洪山区珞喻路1037号

  • 入库时间 2023-06-19 02:46:58

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2017-10-31

    授权

    授权

  • 2017-08-04

    实质审查的生效 IPC(主分类):B25J19/00 申请日:20170322

    实质审查的生效

  • 2017-07-11

    公开

    公开

说明书

技术领域

本发明属于机器人智能控制相关技术领域,更具体地,涉及一种机器人力控示教模仿学习的装置及方法。

背景技术

机器人由于其具有成本低、柔性好、智能化、效率高、操作空间大等优势,当前已在国民日常生活和生产中得到广泛应用,例如服务机器人应用于餐饮、医疗、康复、人体增强等,工业机器人应用于搬运、焊接、装配、打磨等。在这些机器人应用中,相当一大部分涉及机器人与外界环境的接触与交互,为了防止机器人和外界环境对象损坏,需要对机器人本身实施柔顺力控制,如阻抗控制、力位并联控制、力位混合控制,以适应周围环境的集合拓扑变化。而非结构化环境的未知性和复杂性,导致机器人顺应控制难以快速调整力参数,从而引起机器人在接触过程中产生振动和冲击,破坏机器人与外界交互的平顺性。利用模仿学习的策略,将人类的技能与经验传递给机器人,通过人工示教的方式使机器人获取与环境交互的力控参数调制手段,可解决机器人与非结构化环境交互时的顺应性问题。

机器人示教学习通过某一设备或者方式实现对机器人作业任务的规划。目前,常规的示教方法主要是通过示教器、离线编程或者操作人员手执机器人末端运动这些方式来实现。然而,这些方式可以实现机器人常规的运动规划,但机器人与外界环境进行接触或者交互时,难以实现其顺应性控制,制约了机器人在复杂环境下的应用。相应地,本领域存在着发展一种实用性较好的机器人示教模仿学习装置及方法的技术需求。

发明内容

针对现有技术的以上缺陷或改进需求,本发明提供了一种机器人力控示教模仿学习的装置及方法,其基于机器人示教学习的特点,针对机器人示教学习的装置及方法进行了设计。所述装置通过操纵六自由度并联示教机器人来操作六自由度操作机器人,且可以感知六自由度操作机器人与环境接触对象的接触力,继而通过模仿学习,六自由度操作机器人可以快速复现六自由度并联示教机器人的力控操作;通过力位采样控制系统记录下的接触力数据及位姿数据学习人在操作机器人时估计环境位置、环境刚度和维持期望的接触力的经验并学习相应的力控参数,同时通过隐马尔科夫模型(HMM)对力控示教运动的力位轨迹进行行为编码后,采用高斯混合回归(GMRa)模型实现六自由度操作机器人对力控示教运动的行为再现,实用性较好,应用简单,灵活性较高,且提高了效率。

为实现上述目的,按照本发明的一个方面,提供了一种机器人力控示教模仿学习的装置,其包括六自由度并联示教机器人、第一六维力传感器、第二六维力传感器、六自由度操作机器人及力位采样控制系统,其特征在于:

所述第一六维力传感器设置在所述六自由度并联示教机器人的末端执行器上,其用于感测所述六自由度并联示教机器人受到的驱动力并将所述驱动力传输给所述力位采样控制系统;所述六自由度并联示教机器人的六关节反馈系统进行正运动学解算以获得其末端的位姿数据,并将所述位姿数据发送给所述力位采样控制系统;所述第二六维力传感器设置在所述六自由度操作机器人的末端执行器上,其用于感测所述六自由度操作机器人末端的接触力并将所述接触力传输给所述力位采样控制系统;所述力位采样控制系统分别电性连接于所述六自由度并联示教机器人及所述六自由度操作机器人,其用于依据所述接触力及所述驱动力实施力参考阻抗控制,从而控制所述六自由度操作机器人受到的接触力;

所述力位采样控制系统还用于根据来自所述六关节反馈系统的位姿数 据、以及所述六自由度并联示教机器人与所述六自由度操作机器人的操作空间的映射关系计算所述六自由度操作机器人末端的位姿,继而通过逆运动学求解所述六自由度操作机器人的各关节指令,根据得到的所述各关节指令操纵所述六自由度操作机器人与所述六自由度并联示教机器人随动。

进一步地,所述六自由度并联示教机器人的操作空间、力空间分别与所述六自由度操作机器人的操作空间、力空间一一映射。

进一步地,所述力位采样控制系统还用于记录所述六自由度操作机器人的接触力数据及位姿数据,以供隐马尔科夫模型对所述六自由度操作机器人的接触力数据及位姿数据进行编码。

进一步地,所述第一六维力传感器的结构与所述第二六维力传感器的结构相同。

进一步地,所述装置还包括示教手柄及操作对象,所述示教手柄设置在所述第一六维力传感器上;所述操作对象设置在所述第二六维力传感器上。

按照本发明的另一方面,提供了一种机器人力控示教模仿学习的方法,其包括以下步骤:

(1)提供如上所述的机器人力控示教模仿学习的装置,将所述六自由度并联示教机器人的操作空间、力空间分别与所述六自由度操作机器人的操作空间、力空间一一映射,并求得映射关系;

(2)所述六自由度并联示教机器人进行拖动示教,所述第一六维力传感器将感测到的所述驱动力传输给所述力位采样控制系统,所述第二六维力传感器将感测到的接触力传输给所述力位采样控制系统,所述力位采样控制系统依据所述接触力及所述驱动力进行阻抗控制;

(3)采用拖动示教的方式来改变所述六自由度并联示教机器人的位姿,所述六自由度并联示教机器人的六关节反馈系统进行正运动学结算以获得所述六自由度并联示教机器人的位姿数据,并将所述位姿数据传输给 所述力位采样控制系统,所述力位采样控制系统计算出所述六自由度操作机器人末端的位姿,继而通过逆运动学求解所述六自由度操作机器人的各关节指令,根据得到的所述各关节指令操纵所述六自由度操作机器人与所述六自由度并联示教机器人随动;

(4)所述力位采样控制系统判断所述六自由度操作机器人是否与环境接触对象接触并产生了接触力,如果有,所述力位采样控制系统将该接触力作为六自由度并联示教机器人参考力输入,并实施力参考阻抗控制,以调整接触力,直至所述接触力在预定的范围内,否则继续运动直至所述六自由度操作机器人与所述环境接触对象接触;

(5)采用隐马尔科夫模型对所述六自由度操作机器人的接触力数据及位姿数据进行编码,并通过所述隐马尔科夫模型的训练方法获得所述六自由度操作机器人的力位感知运动模型;

(6)所述六自由度操作机器人在实际运动过程中,结合所述力位感知运动模型及所述六自由度操作机器人的接触力大小,采用高斯混合回归模型对所述六自由度操作机器人的运动进行调整,从而使所述六自由度操作机器人实现行为再现。

进一步地,所述力位感知运动模型包括所述六自由度操作机器人的接触力数据及位姿数据、以及估计的环境刚度数据。

总体而言,通过本发明所构思的以上技术方案与现有技术相比,本发明提供的机器人力控示教模仿学习的装置及方法,所述装置通过操纵六自由度并联示教机器人来操作六自由度操作机器人,且可以感知六自由度操作机器人与环境接触对象的接触力,继而通过模仿学习,六自由度操作机器人可以快速复现六自由度并联示教机器人的力控操作;通过力位采样控制系统记录下的接触力数据及位姿数据学习人在操作机器人时估计环境位置、环境刚度和维持期望的接触力的经验并学习相应的力控参数,同时通过隐马尔科夫模型(HMM)对力控示教运动的力位轨迹进行行为编码后, 采用高斯混合回归(GMRa)实现操作机器人对力控示教运动的行为再现,实用性较好,应用简单,灵活性较高,且提高了效率。

附图说明

图1是本发明较佳实施方式提供的机器人力控示教模仿学习的装置处于使用状态的示意图;

图2是本发明较佳实施方式提供的机器人力控示教模仿学习的方法的部分流程示意图;

图3是图1中的机器人力控示教模仿学习的装置的力参考阻抗控制架构图。

在所有附图中,相同的附图标记用来表示相同的元件或结构,其中:1-六自由度并联示教机器人,2-第一六维力传感器,3-示教手柄,4-操作对象,5-第二六维力传感器,6-六自由度操作机器人,7-力位采样控制系统,8-环境接触对象。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。

请参阅图1及图3,本发明较佳实施方式提供的机器人力控示教模仿学习的装置采用并联机器人的方式,同时采用六自由度并联示教机器人对六自由度操作机器人进行现场或者遥控操作的示教运动,使操作者拖动六自由度并联示教机器人时的工作空间更加灵活。所述装置将力控及模仿学习的策略引入了示教学习中。其中,力控策略是对六自由度并联示教机器人本身实施柔顺性控制,根据六自由度操作机器人与环境接触对象的力觉反馈来真实再现阻抗交互的过程,避免了六自由度操作机器人与环境接触对 象接触时产生强烈的振动或冲击;模仿学习则是通过观察示教者(机器人或者人)的运动行为,学习运动控制和力控制策略,进而获取复杂的运动技能。所述的机器人力控示教模仿学习的装置能够快速实现力操作技能自人类到机器人的迁移、快速学习与复杂环境交互时的力控参数。

所述装置包括六自由度并联示教机器人1、第一六维力传感器2、示教手柄3、操作对象4、第二六维力传感器5、六自由度操作机器人6及力位采样控制系统7,所述第一六维力传感器2设置在所述六自由度并联示教机器人1的末端执行器上,其用于感测所述六自由度并联示教机器人1受到的驱动力,并将感测到的所述驱动力传输给所述力位采样控制系统7。所述示教手柄3设置在所述第一六维力传感器2上,操作者通过所述示教手柄3给所述六自由度并联示教机器人1施加外力以改变所述六自由度并联示教机器人1的位姿。所述六自由度并联示教机器人1的六关节反馈系统进行正运动学解算以获得所述示教手柄3的位姿数据,并将所述位姿数据发送给所述力位采样控制系统7。

所述第二六维力传感器5设置在所述六自由度操作机器人6的末端执行器上,其用于感测所述操作对象4的接触力,并将感测到的所述接触力传输给所述力位采样控制系统7。所述操作对象4设置在所述第二六维力传感器5上,其用于与环境接触对象8相互作用。本实施方式中,所述操作对象4为探针;所述环境接触对象8为复杂曲面结构;所述第一六维力传感器2的结构与所述第二六维力传感器5的结构相同;所述六自由度并联示教机器人1的操作空间、力空间分别与所述六自由度操作机器人6的操作空间、力空间一一映射。

所述力位采样控制系统7分别通过总线连接于所述六自由度并联示教机器人1及所述六自由度操作机器人6,且其将接收到的来自所述第二六维力传感器5的接触力作为所述六自由度并联示教机器人1的参考力输入并实施力参考阻抗控制,从而控制所述六自由度操作机器人6的接触力。所 述力位采样控制系统7还用于根据来自所述六关节反馈系统的位姿数据、以及所述六自由度并联示教机器人1与所述六自由度操作机器人6的操作空间的映射关系计算所述六自由度操作机器人6上的所述操作对象4的位姿,继而通过逆运动学求解所述六自由度操作机器人6的各关节指令,根据得到的所述各关节指令操纵所述六自由度操作机器人6与所述六自由度并联示教机器人1随动。

所述力位采样控制系统7还用于记录所述六自由度操作机器人6的接触力数据及位姿数据,采用隐马尔科夫模型对所述六自由度操作机器人6的接触力数据及位姿数据进行编码。根据所述六自由度操作机器人6的接触力大小及所述隐马尔科夫模型,利用高斯混合回归模型对所述六自由度并联示教机器人1的运动进行调整,从而实现所述六自由度操作机器人6对力控示教运动的行为再现。

本实施方式中,所述装置通过操纵六自由度并联示教机器人1来遥控操作所述六自由度操作机器人6,同时可以感知所述六自由度操作机器人6与环境的接触力,进而通过模仿学习,所述六自由度操作机器人6即可快速复现所述六自由度并联示教机器人1的力控示教运动,提高了所述六自由度操作机器人6与周围环境的交互效率及实用性。

请参阅图2,本发明较佳实施方式提供的机器人力控示教模仿学习的方法,其主要包括以下步骤:

步骤一,行为获取,具体包括以下步骤:

(11)提供如上所述的机器人力控示教模仿学习的装置,将所述六自由度并联示教机器人1的操作空间、力空间与所述六自由度操作机器人6的操作空间、力空间分别一一映射,并求得映射关系。

(12)操作者通过所述示教手柄3进行拖动示教,所述第一六维力传感器2将感测到的驱动力传输给所述力位采样控制系统7,所述第二六维力传感器5将感测到的接触力传输到所述力位采样控制系统7,所述力位采样 控制系统7依据接收到的所述驱动力及接触力进行阻抗控制;

(13)通过所述示教手柄3利用拖动示教的方式来改变所述六自由度并联示教机器人1的位姿,所述六自由度并联示教机器人1的六关节反馈系统进行正运动学解算以获得所述示教手柄3的位姿数据,并将所述位姿数据传输给所述力位采样控制系统7。所述力位采样控制系统7根据来自所述六关节反馈系统的位姿数据、以及所述六自由度并联示教机器人1与所述六自由度操作机器人6的操作空间的映射关系计算所述六自由度操作机器人6上的所述操作对象4的位姿,继而通过逆运动学求解所述六自由度操作机器人6的各关节指令,根据得到的所述各关节指令操纵所述六自由度操作机器人6与所述六自由度并联示教机器人1随动。

(14)所述力位采样控制系统7判断六自由度操作机器人6是否与环境接触对象8接触并产生了接触力,如果有,所述力位采样控制系统7将该接触力作为六自由度并联示教机器人1的参考力输入,并实施力参考阻抗控制,调整接触力,直至所述接触力在预定的范围内,否则继续运动直至六自由度操作机器人6与环境接触对象8接触。

所述六自由度操作机器人6在运动过程中与所述环境接触对象8接触,所述第二六维力传感器5检测所述操作对象4的接触力并将采集到的所述接触力传输给所述力位采样控制系统7,所述力位采样控制系统7依据接收到的所述接触力来实施力参考阻抗控制,从而复现所述六自由度并联示教机器人1的驱动力,使操作者实时感知操作力。

具体地,首先,定义Xr是参考位置,Xd是位置控制命令,X是实际位置,E=Xr-X,Xe是环境位置。根据所述六自由度操作机器人6上的操作对象4与环境接触对象是否接触分为两种情况:自由空间和接触空间。阻抗控制的方程在自由空间下为:在接触空间下为:>e是接触力,Fd是驱动力,M是惯性参数,B是>

(1)在自由空间下,Fe=0。操作者给所述示教手柄3提供一个驱动力Fd,所述六自由度并联示教机器人1的末端执行器上的所述第一六维力传感器2把检测到的Fd反馈给所述力位采样控制系统7,所述力位采样系统7以力-力矩信号Fd作为力参考阻抗控制的输入,并经过阻抗控制器后产生一个位置修正向量e1来控制所述六自由度并联示教机器人1的运动,同时将得到的位姿映射给所述六自由度操作机器人6。此位置修正向量满足以下阻抗控制公式:

(2)当所述六自由度操作机器人6上的操作对象4与所述环境接触对象8接触后,所述第二六维力传感器5采集接触力Fe并将所述接触力Fe发送至所述力位采样控制系统7,同时所述六自由度并联示教机器人1末端执行器上的所述第一六维力传感器2会把所述驱动力Fd发送给所述力位采样控制系统7。由于所述六自由度并联示教机器人1与所述六自由度操作机器人6末端的力空间也是一一映射,所述力位采样控制系统7将这两个力的差值Fe-Fd作为所述六自由度并联示教机器人1的参考力输入,并实施力参考阻抗控制,此时所述力位采样控制系统7产生一个位置修正向量e2来控制所述六自由度并联示教机器人1的运动并将得到的位姿映射给所述六自由度操作机器人6,该位置修正向量e2满足下式:

本实施方式中,通过以上的控制策略使操作者感知并能调整驱动力,从而实现所述的机器人力控示教模仿学习的装置的闭环控制。

步骤二,采用隐马尔科夫模型(HMM)对所述六自由度操作机器人6的接触力数据及位姿数据进行编码,并通过所述隐马尔科夫模型的训练方法获得所述六自由度操作机器人6的力位感知运动模型。所述力位感知运动模型包含了所述六自由度操作机器人6的接触力数据及位姿数据、以及隐藏的环境刚度数据。

具体地,假设进行了m次示教m∈{1,...,M},每次示教中又包含Tm个数据点,这就形成了一个训练的数据集其中每个数据点δt=RD,D是所有的输入和输出的变量,即分别是代表六自由度操作机器人内部状态与环境状态的z(t)和六自由度操作机器人行为的u(t)。定义有Nc个分量的遍历HMM为λ=({aij},{bj(δt)},π),其中{aij}(1≤i,j≤Nc)是状态转移概率矩阵;{bj(δt)}是连续观察概率密度,且服从正态分布;π={πi}(1≤i≤Nc)是初始状态概率向量。

对于给定的可观察状态序列O来说,模仿学习主要就是找到局部最优参数λ使P(O|λ)最大,本实施方式采用Baum-welch算法(前向后向算法)来求解局部最优参数,同时采用HMM训练模型来重建输出命令和给定的感知数据。为了描述重新估计HMM的过程,定义变量如下: 和其中α,β分别是前向变量和后向变量;整理得到下列重估公式更新HMM参数: 在学习过程中,不断更新HMM的参数,从而使P(O|λ)最大,通过以上公式迭代计算得到的HMM训练模型是基于力位感知的运动模型。

步骤三,所述六自由度操作机器人6在实际运动过程中,结合所述力位感知运动模型及所述六自由度操作机器人6的接触力大小,采用高斯混合回归模型对所述六自由度操作机器人6的运动进行调整,从而使所述六自由度操作机器人6实现行为再现。

具体地,由于相同的HMM力位感知运动模型可能存在多个输出,故采用加权技术,确保机器人能利用顺序信息执行正确的动作。基于实际数据、隐藏信息和与前向变量相关的转移概率采用高斯混合回归模型(GMRa)来估计权重,基于临时信息的GMRa通过下式得出六自由度操作机器人6 在行为复现时的动作输出:其中是第i个高斯回归的前向变量,可以通过观察向量的部分输入x将它计算出来。GMRa预测的六自由度操作机器人6命令是基于对当前和过去信息的观察,在给定的力位感知运动模型中对六自由度操作机器人6的输出动作进行调整,即通过机器人力控示教模仿学习的方法,使所述六自由度操作机器人6复现人的力控技巧。

以下采用一个具体实施例来详细说明本发明,其中所述环境接触对象8为复杂曲面,现场学习操作者手持所述示教手柄3跟踪所述环境接触对象8具体包括以下步骤:

首先,装置的安装。具体地,将所述六自由度并联示教机器人1固定于刚性底盘上,所述第一六维力传感器2安装于所述六自由度并联示教机器人1的末端执行器上,所述示教手柄3安装于所述第一六维力传感器2上;同时将所述六自由度操作机器人6也固定于另一个刚性底盘上,将所述第二六维力传感器5安装在所述六自由度操作机器人6的末端执行器上,所述操作对象4安装在所述第二六维力传感器5上;所述力位采样控制系统7通过现场总线分别与所述六自由度并联示教机器人1及所述六自由度操作机器人6连接,须确保现场总线在所述六自由度并联示教机器人1及所述六自由度操作机器人6的公共作业区域不会发生干涉,同时需确保所述六自由度操作机器人6能覆盖所有需要的作业区域。

其次,装置的调试。具体地,力控示教模仿学习开始前,需要对所述六自由度并联示教机器人1和所述六自由度操作机器人6进行调试,使机器人以绝对精度达到工作要求(即期望位置与实际位置之间的偏差在作业容许范围之内),对所述第一六维力传感器2及所述第二六维力传感器5分别进行标定,确认其输出力信号是正常的。

之后,进行机器人力控示教模仿学习。具体地,在自由空间下,操作 者提供一个驱动力Fd,所述六自由度并联示教机器人1末端执行器上的所述第一六维力传感器2会把这个检测到的Fd反馈给所述力位采样控制系统7,所述驱动力Fd经过阻抗控制器后产生一个位置修正向量e1,该位置修正向量满足以下阻抗控制公式:在自由空间下,操作人员手持所述示教手柄3,通过拖动所述六自由度并联示教机器人1末端以改变其姿态,所述示教手柄3的位姿利用所述六自由度并联示教机器人1的6关节伺服反馈系统进行正运动学解算,并将得到的位姿数据发送至所述力位采样控制系统7。由于所述六自由度并联示教机器人1与所述六自由度操作机器人6末端的操作空间一一映射,所述力位采样控制系统7根据操作空间映射关系计算所述六自由度操作机器人6末端操作位姿,进而通过逆运动学求解所述六自由度操作机器人6的各关节指令,根据得到的各关节指令操纵所述六自由度操作机器人6与所述六自由度并联示教机器人1随动。

当所述六自由度操作机器人6末端的所述操作对象4(探针)在运动过程中与所述环境接触对象8接触后,所述第二六维力传感器5采集所述六自由度操作机器人6的末端接触力Fe并将采集到的接触力发送至所述力位采样控制系统7,由于所述六自由度并联示教机器人1与所述六自由度操作机器人6的末端力空间也是一一映射,所述力位采样控制系统7将该接触力Fe作为所述六自由度并联示教机器人1的参考力输入,并实施力参考阻抗控制,此时所述力位采样控制系统7产生一个位置修正向量e2,位置修正向量e2满足下式:其中Fd是人手提供的驱动力。修正位置向量e2与原轨迹规划产生的参考位置向量Xr相加,得到新的位置控制命令Xd1=Xr+e。所述六自由度并联示教机器人1得到新的位置控制命令Xd1,即给操作者提供一个和实际接触力相同的虚拟力反馈,操作者可以根据自身经验调节他驱动机器人的力的大小,通过上述流程去间接操控所述>

通过以上的控制策略使操作者感知并能调整操作力,同时,所述力位采样控制系统7将所述六自由度操作机器人6在任务空间中的接触力数据及位姿数据信息记录下来,以为行为编码做准备。

接着,采用隐马尔科夫模型(HMM)对所述六自由度操作机器人6的接触力数据及位姿数据进行编码,并通过所述隐马尔科夫模型的训练方法获得所述六自由度操作机器人6的力位感知运动模型。编码时,输入的是接触力数据及所述六自由度操作机器人6在任务空间的位姿数据,输出是所述六自由度操作机器人6在关节空间的速度指令。

假设进行了m次示教,每次示教过程中包含Tm个数据点,这就形成了一个训练的数据集:因此,这里通过HMM建立了六维力-力矩、六自由度操作机器人末端位姿与六自由度操作机器人角速度的映射关系。随后采用Baum-welch算法(前向后向算法),找到局部最优参数λ使概率P(O|λ)最大。通过HMM的训练方法获得所述六自由度操作机器6的力位感知运动模型,该力位感知运动模型还包括了隐藏的环境刚度数据。

最后,所述六自由度操作机器人6在实际运动过程中,通过输入的实际数据、隐藏的环境刚度数据和与前向变量相关的转移概率来估计高斯混合回归模型的权重,使得所述六自由度操作机器人6正确执行动作。在行为再现时,对应的关节角速度输出为:即结合HMM训练出力感知的运动模型,通过力控示教模仿学习的方式,让所述六自由度操作机器人6快速学习到接触力信息和环境刚度特性。

本发明提供的机器人力控示教模仿学习的装置及方法,通过操纵六自 由度并联示教机器人来操作六自由度操作机器人,且可以感知六自由度操作机器人与环境接触对象的接触力,继而通过模仿学习,六自由度操作机器人可以快速复现六自由度并联示教机器人的力控操作;通过力位采样控制系统记录下的接触力数据及位姿数据学习人在操作机器人时估计环境位置、环境刚度和维持期望的接触力的经验并学习相应的力控参数,同时通过隐马尔科夫模型(HMM)对力控示教运动的力位轨迹进行行为编码后,采用高斯混合回归(GMRa)实现操作机器人对力控示教运动的行为再现,实用性较好,应用简单,灵活性较高,且提高了效率。

本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号