期刊检索

  • 2024年第56卷
  • 2023年第55卷
  • 2022年第54卷
  • 2021年第53卷
  • 2020年第52卷
  • 2019年第51卷
  • 2018年第50卷
  • 2017年第49卷
  • 2016年第48卷
  • 2015年第47卷
  • 2014年第46卷
  • 2013年第45卷
  • 2012年第44卷
  • 2011年第43卷
  • 2010年第42卷
  • 第1期
  • 第2期

主管单位 中华人民共和国
工业和信息化部
主办单位 哈尔滨工业大学 主编 李隆球 国际刊号ISSN 0367-6234 国内刊号CN 23-1235/T

期刊网站二维码
微信公众号二维码
引用本文:周凯,罗元,张毅,李晋宏.动态环境下融合边缘信息的稠密视觉里程计算法[J].哈尔滨工业大学学报,2021,53(2):132.DOI:10.11918/202007031
ZHOU Kai,LUO Yuan,ZHANG Yi,LI Jinhong.Dense visual odometry based on edge information fusion in dynamic environment[J].Journal of Harbin Institute of Technology,2021,53(2):132.DOI:10.11918/202007031
【打印本页】   【HTML】   【下载PDF全文】   查看/发表评论  下载PDF阅读器  关闭
过刊浏览    高级检索
本文已被:浏览 939次   下载 848 本文二维码信息
码上扫一扫!
分享到: 微信 更多
动态环境下融合边缘信息的稠密视觉里程计算法
周凯1,罗元1,张毅2,李晋宏2
(1.光电信息传感与技术重点实验室(重庆邮电大学),重庆 400065;2.重庆邮电大学 信息无障碍与服务机器人工程技术研究中心,重庆 400065)
摘要:
针对传统的视觉里程计算法在动态环境下存在位姿估计精度不高且鲁棒性较差的问题,提出一种融合边缘信息的稠密视觉里程计算法.首先,使用深度信息计算像素点的空间坐标,并采用K-means算法进行场景聚类.分别基于光度信息与边缘信息的聚类构建出光度及几何一致性误差与边缘对齐误差,两者结合并进行正则化后得到数据融合的残差模型.将平均背景深度引入到残差模型中,用以扩大动、静部分残差差距而有利于正确的运动分割.然后,根据聚类残差分布的普遍特征,构建运动似然的非参数统计模型,通过动态阈值进行运动分割,剔除动态物体并得到聚类权重.最后,将加权聚类残差加入到位姿估计的非线性优化函数中,以降低动态物体的影响,提高位姿估计的精度.在TUM数据集上进行实验,结果表明本文算法在静态环境下以及富有挑战性的高动态环境下都能取得较好的结果,在动态环境下比现有算法具有更高的精度与鲁棒性.
关键词:  移动机器人  视觉里程计  边缘对齐  动态环境  运动分割
DOI:10.11918/202007031
分类号:TP242.6
文献标识码:A
基金项目:国家资金基金(61803058);国家自然科学基金(51775076)
Dense visual odometry based on edge information fusion in dynamic environment
ZHOU Kai1,LUO Yuan1,ZHANG Yi2,LI Jinhong2
(1.Key Laboratory of Optoelectronic Information Sensing and Technology (Chongqing University of Posts and Telecommunications), Chongqing 400065, China; 2. Engineering Research Center for Information Accessibility and Service Robots, Chongqing University of Posts and Telecommunications, Chongqing 400065, China)
Abstract:
In view of the low robustness and poor accuracy of traditional visual odometry in dynamic environment, a dense visual odometry based on edge information fusion was proposed. First, the spatial coordinates of pixels based on depth information were calculated, and the K-means algorithm was adopted for scene clustering. Based on the clustering of photometric information and edge information, the photometric consistency error and edge alignment error were constructed respectively, and the residual model was obtained after fusion and regularization of the two errors. Next, the average background depth was introduced to the residual model so as to expand the residual difference between the dynamic and static parts, ensuring correct motion segmentation. Then, a non-parametric statistical model was constructed based on the general characteristics of the cluster residual distribution, and motion segmentation was performed through dynamic thresholds to eliminate dynamic objects and obtain clustering weights. Finally, the weighted cluster residuals were added to the nonlinear optimization function of pose estimation to reduce the effect of dynamic objects and improve the accuracy of pose estimation. Experiments on TUM dataset show that the proposed algorithm could achieve better results in both static and high dynamic environments, and it had higher accuracy and robustness than the existing algorithm in dynamic environment.
Key words:  mobile robot  visual odometry  edge alignment  dynamic environment  motion segmentation

友情链接LINKS