动态场景
动态场景的相关文献在1996年到2023年内共计496篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、教育
等领域,其中期刊论文167篇、会议论文16篇、专利文献138771篇;相关期刊128种,包括长春理工大学学报(自然科学版)、中国图象图形学报、传感技术学报等;
相关会议16种,包括第10届全国计算机支持的协同工作学术会议暨中国计算机学会协同计算专委年度工作会议、第十届中国智能机器人会议、中国计算机用户协会仿真应用分会成立三十周年庆祝大会暨2013全国仿真技术学术会议等;动态场景的相关文献由1384位作者贡献,包括戴琼海、刘烨斌、马科峰等。
动态场景—发文量
专利文献>
论文:138771篇
占比:99.87%
总计:138954篇
动态场景
-研究学者
- 戴琼海
- 刘烨斌
- 马科峰
- 李卓
- 方璐
- 何自芬
- 张印辉
- 李甫
- 王欣
- 石光明
- 施蕊
- 时庆峰
- 李丹
- 石诺
- 鲍虎军
- 刘宏
- 吴恩华
- 吴柯萱
- 姜翰青
- 孙红胜
- 尹成浩
- 师五喜
- 张婧
- 张小威
- 张少飞
- 张涛
- 张磊
- 徐枫
- 曹先彬
- 李宝全
- 杨莉莉
- 潘朝凤
- 王文成
- 王涛
- 王鹏
- 章国锋
- 蔡述庭
- 陈宗海
- 魏树弟
- 黄元骏
- 乔立红
- 傅由甲
- 刁常宇
- 刘睿
- 刘纯平
- 吴国富
- 孙铭礁
- 季怡
- 安仲帅
- 宋井宽
-
-
方娟;
方振虎
-
-
摘要:
为了降低动态环境对同时定位与建图(simultaneous localization and mapping,SLAM)位姿估计的干扰,提出一种将目标检测网络与ORB-SLAM2系统结合的方法.在帧间估计阶段,使用目标检测网络获取当前帧的语义信息,得到潜在可移动物体边界框,结合深度图像并根据最大类间方差算法分割出边界框内前景,把落在前景中的动态特征点剔除,利用剩下的特征点估计位姿.在回环检测阶段,利用边界框构建图像语义特征,并与历史帧比较,查询相似关键帧,与视觉词袋法相比,该方法查询速度快,内存占用少.在TUM Techni数据集上进行测试,结果表明该方法可以有效提高ORB-SLAM2在高动态场景中的性能.
-
-
孙晓宁;
胡长岭;
侯森垚
-
-
摘要:
传统动态场景去模糊的方法都基于相邻帧之间的位移比较小,适用于处理平滑变化的模糊核,但难以处理包含多个运动物体的动态场景中经常出现的模糊核突变情况,而且对噪声很敏感。对于监控场景来说,摄像头的运动、环境光照等因素的变化相对可控,而物体的剧烈运动是引起模糊核突变的主要原因。当模糊图像的部分模糊核发生突变,在向更低金字塔层传播时会产生重构误差。
-
-
刘艳艳;
李杰;
赵起超;
陈贝贝;
张禹
-
-
摘要:
使用虚拟现实技术探讨三维动静态空间下返回抑制是否敏感于深度线索及返回抑制效应是否存在空间扩散。采用线索-靶子范式,分别设置三维静态和动态场景。结果发现:三维静态场景,不同深度及不同侧位置均发生返回抑制且产生效应大小有差异;三维动态场景,不同线索条件反应时无显著差异。结果表明,三维静态场景下,返回抑制敏感于深度线索,其效应在空间中存在扩散;客体运动破坏了返回抑制的产生及其效应的空间扩散。
-
-
张恒;
侯家豪;
刘艳丽
-
-
摘要:
针对动态场景下视觉SLAM(simultaneous localization and mapping)算法易受运动特征点影响,从而导致位姿估计准确度低、鲁棒性差的问题,提出了一种基于动态区域剔除的RGB-D视觉SLAM算法。首先借助语义信息,识别出属于移动对象的特征点,并借助相机的深度信息利用多视图几何检测特征点在此时是否保持静止;然后使用从静态对象提取的特征点和从可移动对象导出的静态特征点来微调相机姿态估计,以此实现系统在动态场景中准确而鲁棒的运行;最后利用TUM数据集中的动态室内场景进行了实验验证。实验表明,在室内动态环境中,所提算法能够有效提高相机的位姿估计精度,实现动态环境中的地图更新,在提升系统鲁棒性的同时也提高了地图构建的准确性。
-
-
房立金;
王科棋
-
-
摘要:
在现实场景中,传统视觉同步定位与建图(SLAM)算法存在静态环境假设的限制。由于运动物体的影响,传统的视觉里程计存在大量误匹配,从而影响整个SLAM算法的运行精度,导致系统无法在现实场景中稳定运行。基于深度学习和多视图几何,提出一种面向室内动态环境的视觉SLAM算法。采用目标检测网络对动态物体进行预检测确定潜在运动对象,根据预检测结果,利用多视图几何完成运动物体重检测,确认实际产生运动的物体并将场景中的对象划分为动态和静态两种状态。基于跟踪线程和局部建图线程,提出一种语义数据关联方法和关键帧选取策略,以减少运动物体对算法精度的影响,提高系统的稳定性。在TUM公开数据集上的实验结果表明,在动态场景下,相较于ORB-SLAM2算法,该算法平均均方根误差降低了40%,与同样具有运动剔除的DynaSLAM算法相比,算法实时性提高10倍以上,且运行速度与精度均明显提高。
-
-
张皓诚;
王晓华;
王文杰
-
-
摘要:
实际场景中运动物体的特征点加入到相机位姿计算中,以及静态环境特征点过度稀疏都会导致移动机器人传统视觉同步定位与地图构建(simultaneous localization and mapping,SLAM)算法在位姿估计时精度低、鲁棒性差。设计了基于分支空洞卷积的双边语义分割算法,将环境区分为潜在运动区域和静态区域;结合几何约束进行静态特征点的二次判断及对没有先验动态标记而具有移动性的特征点的判断,并在事先均匀提取的全部特征点中进行移除,只应用静态特征点求解相机位姿和构建静态环境地图。在TUM公共数据集上进行实验,验证了提出算法在动态环境中SLAM的定位精度明显优于现有其他方法。在存在运动物体的真实环境下进行建图实验,与ORB-SLAM2算法进行对比,本文算法在动态场景中构建的地图更清晰。
-
-
张晨阳;
黄腾;
吴壮壮
-
-
摘要:
传统的RGB-D视觉同时定位与制图(SLAM)算法在动态场景中识别动态特征时会产生数据错误关联,导致视觉SLAM估计姿态精度退化。提出一种适用于动态场景的RGB-D SLAM算法,利用全新的跨平台神经网络深度学习框架检测场景中的动态语义特征,并分割提取对应的动态语义特征区域。结合深度图像的K均值聚类算法和动态语义特征区域对点特征深度值进行聚类,根据聚类结果剔除动态特征点,同时通过剩余特征点计算RGB-D相机的位姿。实验结果表明,相比ORB-SLAM2、OFD-SLAM、MR-SLAM等算法,该算法能够减小动态场景下的跟踪误差,提高相机位姿估计的精度和鲁棒性,其在TUM动态数据集上相机绝对轨迹的均方根误差约为0.019 m。
-
-
阮晓钢;
郭佩远;
黄静
-
-
摘要:
针对基于静态场景假设的传统的同时定位与地图构建(simultaneous localization and mapping,SLAM)在动态场景中鲁棒性差、位姿估计准确率低的问题,提出了一种基于深度学习的语义视觉SLAM方法.该方法将语义分割技术与运动一致性检测算法相结合,首先用Mask R-CNN网络对图像进行语义分割,建立动态对象的先验语义信息,然后通过运动一致性检测算法进一步剔除属于动态物体的特征点,最后用静态特征点进行特征匹配和位姿估计.基于慕尼黑工业大学(Technical University of Munich,TUM)公开数据集对系统进行实验,结果表明,该系统在动态环境中较传统的ORB-SLAM2系统和DS-SLAM系统明显降低了绝对轨迹误差和相对位姿误差,提高了SLAM系统位姿估计的准确性和鲁棒性.
-
-
冯一博;
张小俊;
王金刚
-
-
摘要:
在地下车库中,人流车辆攒动,动态特征点陡增,导致传统视觉建图会出现严重漂移。为了减少动态场景中出现的动态特征点,本文搭建了一个完整的SLAM框架,提出了一种基于YOLO v3和ORB-SLAM2相结合的动态场景视觉SLAM算法。首先,在传统的视觉前端加入一个语义分割模块用来识别并剔除动态特征点,然后用有效的特征点进行帧间匹配、位姿估计,最后,将采集的地下车库数据集作为试验样本,分别使用LOAM、ORB-SLAM2和本文改进的算法进行地图构建。实验结果表明,改进后的算法能够大幅度提高SLAM系统在动态环境下精度与鲁棒性,并且保证了实时性。
-
-
孙平;
闫冬
-
-
摘要:
为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系下.通过计算特征点在估计图像和当前帧的光流值,区分并剔除ORB-SLAM2中的动态特征点,从而消除动态物体对SLAM定位性能的影响.利用TUM数据集的动态序列对本文算法进行仿真,并与ORB-SLAM2算法进行对比.结果表明,视觉SLAM算法绝对轨迹误差的标准偏差降低84.00%~96.11%,平移和旋转漂移的标准偏差最佳效果分别降低94.00%和96.44%,明显减少了视觉SLAM算法位姿估计的误差.本文算法能够在有效点较少的动态场景下,消除动态物体对视觉SLAM定位性能的影响,提高定位精度.
-
-
Dai De-yun;
戴德云;
Wang Ji-kai;
王纪凯;
Ge Zhen-hua;
葛振华;
Bao Peng;
包鹏;
Chen Zong-hai;
陈宗海
- 《第18届中国系统仿真技术及其应用学术年会(18th CCSSTA 2017)》
| 2017年
-
摘要:
移动机器人在动态场景下工作时,需要对场景进行识别,检测出所在场景中的运动目标.现有的动态目标检测算法如背景减法、帧间差分法,在动态背景下难以取得较好的效果,且现有的一些像素级的运动检测方法,都无法提取出完整的运动目标.本文提出了一种基于稠密场景流的运动目标检测方法,该方法首先利用K-Means聚类算法,对RGB-D图像中的深度图进行聚类并分割图像,然后计算图像的每个分割块的场景流,最后根据聚类结果和场景流估计结果,检测出运动场不为0的区域对应的该类即是动态物体,从而可检测并提取出动态场景下的运动目标.实验结果表明,本文提出的动态物体检测算法可以在背景运动时有效地检测出运动目标,具备较好的鲁棒性,且能够实现运动目标的完整提取.
-
-
-
-
KAO Shu-ting;
考书婷;
QIAO Li-hong;
乔立红
- 《2012年第二届全国现代制造集成技术学术会议》
| 2012年
-
摘要:
产品工艺信息具有多样性和动态性的特点,一个便于集成、并同时考虑用户多视角的工艺信息模型在数字化工艺设计过程中具有重要意义.针对工艺信息自身的特点,本文在工艺流模型的工艺信息表达方式的基础上,利用多色集理论层次模型,以工艺活动为单元对工艺信息进行具有过程特性的组织,对工艺信息进行完整的且可表达复杂约束的描述.并以此为基础,提出动态场景的工艺信息多视图推演方法,能够提供工艺流模型中的各属性信息的多视图视角,对完整工艺信息进行灵活的、满足不同约束和层次的映射和提取,以适应不同系统对工艺信息的查看和集成应用的要求.
-
-
-
WANG Xiao;
王霄;
GAO Si-li;
高思莉;
LI Fan-ming;
李范鸣
- 《2017年光学技术研讨会暨交叉学科论坛》
| 2017年
-
摘要:
为了提高深空中红外探测器探测波段选择的效率以及反映目标真实的在轨状态,文中研究了空间目标动态红外图像的生成技术以及双波段红外图像的仿真.结合从STK获得的空间目标的运行轨迹和姿态数据以及从3DS MAX获得的目标模型数据提出了一种进行空间目标红外成像仿真的方法.首先分析了深空背景中目标的红外辐射特性以及目标在中波和长波两个波段中的辐射特性,为探测器波段参数的选择提供了依据;然后介绍了用节点网络法求解热平衡方程的方法并且简化了求解过程,提高了效率;最后阐述了空间目标红外成像系统的理论模型,实现了空间目标的红外可视化建模与仿真.并仿真图像对新型系统的研制和红外图像处理算法的研究有重要的意义.
-
-
-
-
胡磊力;
车宏;
丁全心
- 《2007年航空试验测试技术学术交流会》
| 2007年
-
摘要:
红外半实物仿真是机载光电系统研制最经济有效的手段之一。详细介绍了红外半实物仿真试验环境,并面向先进机载光电系统提出了分布式红外目标动态仿真系统方案,论述了实时仿真控制网络子系统和红外动态场景投影仪等的实现方法,最后指出内外场相结合的协同仿真模式将成为面向先进机载光电系统的半实物仿真的主要发展趋势。
-
-
-
- 海信视像科技股份有限公司
- 东芝视频解决方案株式会社
- 公开公告日期:2021-10-12
-
摘要:
一种接收装置、场景信息提供系统、非易失性存储介质、场景信息的提供方法、场景显示控制装置及场景信息提供装置,作为节目的收看者的用户能够从被录像的多个节目中,简单地收看介绍期望的商品(X1,X2,X3)等的场景。接收机(2)显示被录像的节目中所包含的、表示商品(X1,X2,X3)及服务中的至少一者的场景的场景信息,根据播放指示,播放从场景信息选择出的场景。
-
-
-
-
-
-
-
-
-