pdf code

FADNet: A Fast and Accurate Network for Disparity Estimation

这篇paper介绍了一个实时的快速的disparity estimation网络,与PSMNet对比,显存消耗显著减小,同时一帧双目速度达到18.7ms,略微惊人。

architecture

image

模仿了DispNet的结构,dispnet则基于FlowNet.其中使用了correlation 层,对右图水平方向上平移D个位置,以每一个左右图对应像素为中心附近patch各自求点乘的累加

作者指出这里暗示了一个patch里面不同位置的权重一致,而这并不一定正确,因而选择先分别做一个的卷积再运行点乘

def build_corr(img_left, img_right, max_disp=40):
    B, C, H, W = img_left.shape
    volume = img_left.new_zeros([B, max_disp, H, W])
    for i in range(max_disp):
        if i > 0:
            volume[:, i, :, i:] = (img_left[:, :, :, i:] * img_right[:, :, :, :-i]).mean(dim=1)
        else:
            volume[:, i, :, :] = (img_left[:, :, :, :] * img_right[:, :, :, :]).mean(dim=1)

    volume = volume.contiguous()
    return volume

第二部分采用的是与FlowNetV2一致的思路,将右图重采样到左图.

inputs_net2 = torch.cat((inputs, resampled_img1, dispnetc_final_flow, norm_diff_img0), dim = 1)