各種深度預測的網絡


能做深度預測或估計的網絡好多,記一下,有時間一個個找源碼和數據跑一遍。

1,monodepth  無監督  有 tf 和 pytorch 代碼 

18,monodepth2  無監督 pytorch    https://github.com/nianticlabs/monodepth2

        Clément Godard小哥真是優秀!

2,sfmlearner   無監督   有 tf 和 pytorch 代碼

  作者里頭有  Noah Snavely,Bundler的作者,emmm ...

3,struct2depth  無監督  只有 tf 代碼   2018.11

  https://github.com/tensorflow/models/tree/master/research/struct2depth

4,GeoNet  這個有3個名字一樣的文章

  https://github.com/xjqi/GeoNet     學了個表面法向量,看文章是監督式的

  https://github.com/yzcjtr/GeoNet  額外學了個光流,這篇更出名點,非監督 

  還有篇arxiv1901的文章

5,SfM-Net

  https://arxiv.org/abs/1704.07804

6,BA-Net   有監督   https://github.com/frobelbest/BANet 尚未公布

7,DeMoN  有監督 

8,vid2depth 無監督  估計很難編譯成功

  https://github.com/tensorflow/models/tree/master/research/vid2depth

9,LKVOLearner  https://github.com/MightyChaos/LKVOLearner  pytorch 0.3 

10, DeepMatchVO  https://github.com/hlzz/DeepMatchVO   tensorflow

  引入了對極幾何的約束,另一篇sfmlearner++也引入了對極約束,可以想象兩篇文章

  作者的酸爽。。。

11, fast-depth  https://github.com/dwofk/fast-depth   pytorch

12, PSMNet   https://github.com/KinglittleQ/PSMNet  

13, GwcNet   https://github.com/xy-guo/GwcNet 

14,DORN  https://github.com/hufu6371/DORN 

  排名第一,有監督的,有其他人寫了pytorch版的

   比較新的玩法是對深度做分類預測。

15,Deep attention-based classification network for robust depth prediction 

16,iResNet  有代碼 

17,deep-vo-feat   這個是開源的,然而是caffe的,看論文效果圖也不怎么樣,忽略 

19,Learning Unsupervised Multi-View Stereopsis via Robust Photometric Consistency 

20,neuralrgbd   https://github.com/NVlabs/neuralrgbd     

        confidence map 這個東西在slam14講和cnn-slam里頭都有提到過

 

22,DeepVIO    19年7月份剛出的,沒開源,雙目+imu,思路還是比較簡單的,

  把光流、深度估計、imu湊一塊,簡直要大一統了,以后這種工作只會越來越多。

  光流適合處理移動物體,imu提供絕對尺度。VINet雖然開源了,但是還封裝了c++,

  不好編譯,希望能有一個包含imu信息的純python版的VIO算法。

23,StereoNet,有人復現了pytorch版。

24,DeepVO   有一大堆復現,看着這些監督式的算法我就想把它們改成非監督的,改成

  非監督的也非常容易,直接把非監督后面計算loss的部分懟上去就可以了。

25,暫且叫 virtual normal 吧     https://arxiv.org/abs/1907.12209  

  這個還是監督的。

  深度一致、法線一致、語義一致 這三個玩法后續肯定還會出不少文章。

26,ActiveStereoNet  

 

最近 2019年5月3日兩篇文章還不錯,但是還沒看到開源,先記着:

Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unknown Cameras

https://github.com/google-research/google-research/tree/master/depth_from_video_in_the_wild 

這篇文章說可以從視頻中學出相機內參來,牛逼,這樣的話網上的視頻也可以用來估計深度了

 

 

Learning the Depths of Moving People by Watching Frozen People

 

frozen這篇只有推斷的代碼,https://github.com/google/mannequinchallenge  沒有訓練代碼 

wild這篇估計不會放源代碼出來了

 

推薦一個庫: https://github.com/floatlazer/semantic_slam   基本上是做全套了。

后續我估計會基於這個庫把深度估計融進去,換掉rgbd和orbslam的部分。

 

27,待續  ...

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM