DeMoN: Depth and Motion Network for Learning Monocular Stereo
https://arxiv.org/pdf/1612.02401.pdf
Keyword: 3D Stereo Depth Map, Structure From Motion
Abstract
问题描述
传统基于运动图像捕捉技术来构建三维深度信息的方法,需要先根据图像中的特征点跟踪获得相机参数,这在低纹理图像中不适用。同时,相机位置的误差会影响到最终的深度信息判断。文章提出一种基于深度学习的方法,对双视图的相机参数和深度信息同时进行学习,更好地预测图像的深度信息。
主要贡献
提出了一个新的网络结构DeMoN,用于训练双视图的相机参数和深度信息。
Main Effect/Pipeline
网络结构
数据集构造
Results
PreviousRealtime Multi-Person 2D Pose Estimation using Part Affinity FieldsNextA Unified Approach of Multi-scale Deep and Hand-crafted Features for Defocus Estimation
Last updated