pdf

Pseudo RGB-D for Self-Improving Monocular SLAM and Depth Prediction

这篇paper融合了单目无监督的深度预测以及SLAM,在训练数据只有单目视频的情况下完成对单目深度预测的训练以及SLAM。

image

对SLAM使用的优化

本文使用的SLAM基准是RGB-D 版本的 ORB-SLAM, 在RGBD设定下,ORB-SLAM会将depth图转换为disparity 图,从而复用Stereo-ORBSLAM的框架。需要设定虚拟双目的基线,对每一个输入序列,先计算网络预测的最大深度, baseline的设定:

深度优化

网络深度的网络是MonoDepth2, 但是优化的方法进一步考虑长期的consistency,

image

图片中为 keyframes.

Depth Transfer Loss

也即是将帧的通过SLAM得到的3D keypoint通过SLAM得到的transformation 转移到帧视角中,要求两者的深度预测值相等。反方向的转换亦然。

transfer loss同样作用于

Depth Consistency Loss

Photometric Reconstruction Loss

利用的深度,相对位移用帧的图像重建帧的图像,按照MonoDepth2的paper计算损失