首页> 中国专利> 基于全局与局部网络融合的第一视角交互动作识别方法

基于全局与局部网络融合的第一视角交互动作识别方法

摘要

本发明提供了一种基于全局与局部网络融合的第一视角交互动作识别方法,包括:对视频进行采样获取不同动作,得到图像组成动作样本;将采样得到的动作片段进行尺寸的统一化处理,并进行数据增强,训练基于全局图像为输入的3D卷积网络,学习全局的动作的时空特征得到网络分类模型;采用稀疏光流来定位动作片段中显著性动作发生的局部区域;将不同动作的局部区域进行尺寸统一处理后,调整网络的超参数,训练基于局部图像为输入的3D卷积网络,学习局部的显著性动作特征得到网络分类模型;对同一个视频多次采样得到动作样本,按投票法将全局与局部模型给出的预测次数统计排序,其中预测最多的类别作为识别的动作标签。

著录项

  • 公开/公告号CN108416288A

    专利类型发明专利

  • 公开/公告日2018-08-17

    原文格式PDF

  • 申请/专利权人 南京理工大学;

    申请/专利号CN201810177014.9

  • 发明设计人 宋砚;法羚玲;唐金辉;舒祥波;

    申请日2018-03-04

  • 分类号G06K9/00(20060101);G06T7/269(20170101);

  • 代理机构32203 南京理工大学专利中心;

  • 代理人朱宝庆

  • 地址 210094 江苏省南京市孝陵卫200号

  • 入库时间 2023-06-19 06:13:14

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-09-11

    实质审查的生效 IPC(主分类):G06K9/00 申请日:20180304

    实质审查的生效

  • 2018-08-17

    公开

    公开

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号