English 日本語 Русский

事件相机在速度估计和SLAM场景中的应用

事件相机在速度估计和SLAM场景中的应用

客??????户
湖南大学机器人学院周易教授团队

摘要:2025年,kf凯发用户、湖南大学周易教授作为通讯作者在机器人顶刊IEEE TRO上发表两篇论文,在基于事件相机的研究中取得重要进展。动捕数据助力验证论文提出的方法。

2025年,kf凯发用户、湖南大学周易教授作为通讯作者在机器人顶刊IEEE TRO上发表两篇论文,在基于事件相机的研究中取得重要进展。动捕数据助力验证论文提出的方法。

论文一

Event-based Visual-Inertial State Estimation for High-Speed Maneuvers

周易教授采访视频

RSS 2024 “Event-based Visual Inertial Velometer”

2024年,周易教授团队在机器人顶会RSS上发表论文“Event-based Visual Inertial Velometer”。时隔一年,研究团队进一步完善了算法,增加了更多真实高速场景下的实验验证,证明了该方法在低延迟和高精度方面的优越性能。并在机器人顶刊IEEE TRO上发表论文“Event-Based Visual-Inertial State Estimation for High-Speed Maneuvers”。

引用格式

X. Lu, Y. Zhou, J. Mai, K. Dai, Y. Xu and S. Shen, "Event-Based Visual-Inertial State Estimation for High-Speed Maneuvers," in IEEE Transactions on Robotics, vol. 41, pp. 4439-4458, 2025, doi: 10.1109/TRO.2025.3584544.

该论文创新性地提出了一种基于事件相机(Event Camera)和惯性测量单元(IMU)的高速运动状态估计方法,首次实现了仅依赖事件流与惯性数据的实时线性速度估计,为无人机、高速机器人等动态场景下的精准定位提供了新思路。研究团队从第一性原理出发创新性地提出了一种“速度计”式设计,通过融合立体事件相机的稀疏法向流和IMU数据,利用连续时间B样条模型直接估计瞬时线速度,避免了传统方法对特征匹配或环境结构的依赖。实验表明,在真实高速场景(如无人机急转、绳索旋转等)中,该方法的速度估计误差比现有技术降低50%以上,且计算效率满足实时性需求。

动作捕捉系统为本文提供事件相机轨迹真值,助力验证本文方法。

论文二

ESVO2: Direct Visual-Inertial Odometry With Stereo Event Cameras

周易教授团队在先前的研究基础之上进行了创新性改进,提出了基于事件相机的双目视觉与惯性里程计系统,着重优化了3D建图效率与位姿估计精度。研究成果以“ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras”为题发表在机器人顶刊IEEE TRO。

引用格式

J. Niu, S. Zhong, X. Lu, S. Shen, G. Gallego and Y. Zhou, "ESVO2: Direct Visual-Inertial Odometry With Stereo Event Cameras," in IEEE Transactions on Robotics, vol. 41, pp. 2164-2183, 2025, doi: 10.1109/TRO.2025.3548523.

通过设计新型边缘点的采样策略并融合前后帧与左右目的深度信息,本研究有效提升了建图?榈耐暾杂爰扑阈剩徽攵韵嗷蛔斯兰浦懈┭鲇肫椒至康耐嘶侍,该研究通过引入IMU测量数据作为运动先验,构建紧凑且稳健的后端优化框架,实现IMU偏置与线速度的实时估计。实验表明,相较于现有主流算法,研究所提出的系统在大尺度室外场景下展现出更高的定位精度和更为优秀的实时性能。

湖南大学校园内的定位实验结果展示

动作捕捉系统为本文提供轨迹真值,助力验证本文方法。

通讯作者介绍

周易,湖南大学机器人学院教授、博士生导师,湖南大学NAIL实验室主任。2018年于澳大利亚国立大学工程与计算机学院取得博士学位,入选国家高水平青年人才计划。主要从事基于先进视觉传感器的机器人感知与导航技术研究,包括高速自主机器人技术、视觉里程计(VO/SLAM)、动态视觉传感器 (Event-based Vision),多视角几何理论等。主要科研成果发表在IEEE T-RO,RSS,ECCV等机器人与计算机视觉的权威刊物,目前担任IEEE RA-L副主编。

关于NAIL实验室:

https://sites.google.com/view/zhouyi-joey/home


机器人帅气团舞

杭州飞阔科技机器人帅气团舞,祝大家马年大吉!k8一触即发的人生赢家kf凯发动作捕捉采集高质量人体动作数据,助力人形机器人舞蹈训练。

韩国国立釜庆大学 履带无人车动作捕捉

韩国国立釜庆大学的Seo Jin-Ho教授的研究团队,在他的机械系统工程专业的Field Robotics Laboratory进行了履带无人车的定位及运动规划项目,该实验室在2022年10月被选为“釜山AI机器人工学合作授权实验室”。

哈工大团队RAL研究 ︳可用于核电设备巡检的可伸缩棱柱弹簧连续体巡检机器人

哈工大杨建文老师团队研究连续体爬行机器人的可伸缩棱柱弹簧主干结构,建立了有限分段与连续运动—静力学模型,并通过有限元分析与实物实验进行验证。实验中采用 k8一触即发的人生赢家 kf凯发三维动作捕捉系统测量弹簧主干的真实三维形态,用于模型精度对比与验证,展示了该结构在非连续复杂空间巡检场景中的应用潜力。

单艇水下运动捕捉| 北大工学院 张飞天老师团队

北大工学院张飞天老师团队,使用k8一触即发的人生赢家kf凯发水下动作捕捉系统,进行单艇水下运动捕捉。
联系凯发com
如需更多应用、案例信息或产品报价,请致电 K8·凯发中国一触即发,或在下方留言:
机器人/无人机 VR/AR/XR 运动康复 传媒娱乐
北京kf凯发科技有限公司(总部)
北京市朝阳区安慧里四区15号五矿大厦8层820室
info@nokov.com
K8·凯发中国一触即发
提交成功!请您耐心等待!
欢迎关注公众号,获取更多信息
关闭
网站地图XML