能做深度預測或估計的網絡好多,記一下,有時間一個個找源碼和數據跑一遍。
1,monodepth 無監督 有 tf 和 pytorch 代碼
18,monodepth2 無監督 pytorch https://github.com/nianticlabs/monodepth2
Clément Godard小哥真是優秀!
2,sfmlearner 無監督 有 tf 和 pytorch 代碼
作者里頭有 Noah Snavely,Bundler的作者,emmm ...
3,struct2depth 無監督 只有 tf 代碼 2018.11
https://github.com/tensorflow/models/tree/master/research/struct2depth
4,GeoNet 這個有3個名字一樣的文章
https://github.com/xjqi/GeoNet 學了個表面法向量,看文章是監督式的
https://github.com/yzcjtr/GeoNet 額外學了個光流,這篇更出名點,非監督
還有篇arxiv1901的文章
5,SfM-Net
https://arxiv.org/abs/1704.07804
6,BA-Net 有監督 https://github.com/frobelbest/BANet 尚未公布
7,DeMoN 有監督
8,vid2depth 無監督 估計很難編譯成功
https://github.com/tensorflow/models/tree/master/research/vid2depth
9,LKVOLearner https://github.com/MightyChaos/LKVOLearner pytorch 0.3
10, DeepMatchVO https://github.com/hlzz/DeepMatchVO tensorflow
引入了對極幾何的約束,另一篇sfmlearner++也引入了對極約束,可以想象兩篇文章
作者的酸爽。。。
11, fast-depth https://github.com/dwofk/fast-depth pytorch
12, PSMNet https://github.com/KinglittleQ/PSMNet
13, GwcNet https://github.com/xy-guo/GwcNet
14,DORN https://github.com/hufu6371/DORN
排名第一,有監督的,有其他人寫了pytorch版的
比較新的玩法是對深度做分類預測。
15,Deep attention-based classification network for robust depth prediction
16,iResNet 有代碼
17,deep-vo-feat 這個是開源的,然而是caffe的,看論文效果圖也不怎么樣,忽略
19,Learning Unsupervised Multi-View Stereopsis via Robust Photometric Consistency
20,neuralrgbd https://github.com/NVlabs/neuralrgbd
confidence map 這個東西在slam14講和cnn-slam里頭都有提到過
22,DeepVIO 19年7月份剛出的,沒開源,雙目+imu,思路還是比較簡單的,
把光流、深度估計、imu湊一塊,簡直要大一統了,以后這種工作只會越來越多。
光流適合處理移動物體,imu提供絕對尺度。VINet雖然開源了,但是還封裝了c++,
不好編譯,希望能有一個包含imu信息的純python版的VIO算法。
23,StereoNet,有人復現了pytorch版。
24,DeepVO 有一大堆復現,看着這些監督式的算法我就想把它們改成非監督的,改成
非監督的也非常容易,直接把非監督后面計算loss的部分懟上去就可以了。
25,暫且叫 virtual normal 吧 https://arxiv.org/abs/1907.12209
這個還是監督的。
深度一致、法線一致、語義一致 這三個玩法后續肯定還會出不少文章。
26,ActiveStereoNet
最近 2019年5月3日兩篇文章還不錯,但是還沒看到開源,先記着:
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unknown Cameras
https://github.com/google-research/google-research/tree/master/depth_from_video_in_the_wild
這篇文章說可以從視頻中學出相機內參來,牛逼,這樣的話網上的視頻也可以用來估計深度了
Learning the Depths of Moving People by Watching Frozen People
frozen這篇只有推斷的代碼,https://github.com/google/mannequinchallenge 沒有訓練代碼
wild這篇估計不會放源代碼出來了
推薦一個庫: https://github.com/floatlazer/semantic_slam 基本上是做全套了。
后續我估計會基於這個庫把深度估計融進去,換掉rgbd和orbslam的部分。
27,待續 ...