基于单个全景相机的视觉里程计

描述

摘要

本文提出了一种新的直接视觉里程计算法,利用360度相机实现鲁棒的定位和建图。本系统使用球面相机模型来处理无需校正的等距柱状图像,扩展稀疏直接法视觉里程计(DSO,direct sparse odometry),从而实现全方位感知。将建图和优化算法应用用于新模型后,可以在局部窗口中对含内、外参在内的相机参数以及三维建图进行联合优化。此外,我们在真实世界和大规模模拟场景中对所提出的算法进行了定性和定量的评估。大量实验表明,我们的系统达到了SOTA的结果。

算法

图1 左上方图中是仅由两个超宽视场镜头组成的典型全景相机。右上角是该360相机成像的例图。随着透镜制造行业的成熟,超宽视野透镜变得更便宜,成像质量也更高。下方的图是由本文中360VO系统重建的地图。

算法

图2 360VO系统概览。该系统的输入是一串等距柱状的帧序列。初始化后,系统在局部窗口中跟踪并优化相关模型参数。

算法

图3 上图显示的是360VO的坐标系,它利用了球面模型的优点来表示相机投影。此外,2D图像是等距柱状投影。

算法

图4 极线约束。当成功追踪时需要创建新的激活点,并通过三角化来细化它们的逆深度。主帧Ci的高对应点位于极线曲线上,而非位于目标帧Cj中的直线上。

算法

图5 合成数据集中部分序列的代表帧。该合成数据集是在真实的城市模型中渲染得到的,由10个大型视频序列组成。

算法

图6 基于序列3的轨迹比较。图中黑色曲线表示Ground-truth,蓝色曲线表示OpenVSLAM得到的轨迹,红色曲线表示本文提出的360VO得到的轨迹。结果显示360VO的轨迹更接近于真值。

算法

图7 上图是合成数据集得到的的结果。每个序列运行10次,得到轨迹的均方根误差(RMSE,Root Mean Square Error)。图中每个柱形顶部的数字是均方根误差的平均值。与OpenVSLAM相比,我们的360VO取得了可观的结果。此外,我们将360°的图像校正并裁剪为90°视场的透视图像,并将其作为运行ORB-SLAM和DSO的输入。显然,利用360相机的方法通常更鲁棒、精度更高。

算法

图8 360VO在室外环境中测试的定性结果

算法

图9 图中蓝色线表示局部优化窗口中激活关键帧间的约束,品红色曲线表示相机轨迹。灰色的球体表示当前帧的位置,而黑色的点表示3D地图。由于同一个地标可以被长时间地观测到,本文中算法得到的结果具有较好的一致性和较低的漂移。

算法

图10 即使在有着无纹理地板、白色墙壁和动态物体的狭窄的室内环境中,360相机也能在空间上捕捉到足够的特征。这种固有的优势使得360VO能够成功地跟踪和建图,而使用透视图像的系统则容易产生漂移。注:图像上的颜色表示点的估计深度,近(红色)→远(蓝色)

审核编辑 :李倩

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分