awesome 整理的GitHub項目整理清單(必看!!!)

11.11 智慧上雲
雲服務器企業新用戶優先購,享雙11同等價格
在這篇文章中:
Amusi 整理過的 awesome 系列項目:
- GitHub:深度學習最全資料集錦
- GitHub:車道線檢測最全資料集錦
- GitHub:目標檢測最全論文集錦
- GitHub:TensorFlow最全資料集錦
- GitHub:圖像分類最全資料集錦
- GitHub:圖像分割最全資料集錦
- GitHub:目標跟蹤最全資料集錦
- GitHub:人群密度估計最全資料集錦
以下,依次是awesome系列項目
Awesome-Deep-Learning:
https://github.com/ChristosChristofidis/awesome-deep-learning
該項目主要包含以下內容:
- 免費在線書籍
- 教程
- 視頻和講座
- 論文
- 導讀
- 學者
- 網站
- 數據集
- 會議
- 框架
- 工具
- 其它
awesome-lane-detection
awesome-lane-detection是Amusi 整理的關於車道線檢測的資料合集,已經發布到github上,歡迎star、fork。
據筆者了解,車道線檢測解決方案主要分為傳統圖像處理和深度學習兩種。看起來每個領域都可以這么說,但車道線檢測與其它研究方向不太一樣。因為檢測的目標可能是直線也可能是曲線,而且只是"線"而已,目前很多公司還在用傳統圖像處理方法來解決。
https://github.com/amusi/awesome-lane-detection
這個開源庫主要包括以下內容:
- 論文(以2017之后為主)
- 開源代碼
- 博客
- 數據集
awesome-Object-Detection
接下來,重點介紹一下這個“很copy”的庫。awesome-object-detection的目的是為了提供一個目標檢測(Object Detection)學習的平台。特點是:介紹最新的paper和最新的code(盡量更新!)由於Amusi還是初學者,目前還沒有辦法對每個paper進行介紹,但后續會推出paper精講的內容,也歡迎大家star,fork並pull自己所關注到最新object detection的工作。
https://github.com/amusi/awesome-object-detection
那來看看目前,awesome-object-detection里有哪些干貨吧~
為了節省篇幅,這里只介紹較為重要的工作:
- R-CNN三件套(R-CNN Fast R-CNN和Faster R-CNN)
- Light-Head R-CNN
- Cascade R-CNN
- YOLO三件套(YOLOv1 YOLOv2 YOLOv3)
- SSD(SSD DSSD FSSD ESSD Pelee)
- R-FCN
- FPN
- DSOD
- RetinaNet
- DetNet
- ...
大家對常見的R-CNN系列和YOLO系列一定很熟悉了,這里Amusi也不想重復,因為顯得沒有逼格~這里主要簡單推薦兩篇paper,來凸顯一下awesome-object-detection的意義。
TensorFlow-From-Zero-To-One
本文分享一份由Amusi整理的TensorFlow最全資料集錦:TensorFlow-From-Zero-To-One。主要包含TensorFlow入門指南、官方&社區、在線教程、視頻教程、書籍資源和實戰項目。
https://github.com/amusi/TensorFlow-From-Zero-To-One
CVer計划推出幾個深度學習框架的資料集錦,統一命名為:XXX-From-Zero-To-One。下面po一幅深度學習框架發展的重要歷史點:

來自MIT Deep Learning
從上圖可知,TensorFlow和PyTorch是目前深度學習框架中的扛把子。當然這個大方向基調很早之前就奠定下來了,畢竟TensorFlow是Google家的,PyTorch是Facebook家的。
所以目前已經建立兩個開源庫:
- TensorFlow-From-Zero-To-One
- PyTorch-From-Zero-To-One
awesome-image-classification
給大家推薦一個圖像分類(Image Classification)的最全資料項目。
這是 weiaicunzai 在學習圖像分類時,整理的論文和代碼等資源合集。其中論文年份是從2014年開始,所列出的論文都是在ImageNet上有一定 TOP1和TOP5 准確度的。
https://github.com/weiaicunzai/awesome-image-classification
這個開源庫主要包括以下內容:
- 網絡實驗數據表格
- 論文&代碼
網絡實驗數據表格
- ConvNet:卷積神經網絡名稱
- ImageNet top1 acc:該網絡在ImageNet上Top1 最佳准確率
- ImageNet top5 acc:該網絡在ImageNet上Top5 最佳准確率
- Published In:發表源(期刊/會議/arXiv)
ConvNet |
ImageNet top1 acc |
ImageNet top5 acc |
Published In |
---|---|---|---|
Vgg |
76.3 |
93.2 |
ICLR2015 |
GoogleNet |
- |
93.33 |
CVPR2015 |
PReLU-nets |
- |
95.06 |
ICCV2015 |
ResNet |
- |
96.43 |
CVPR2015 |
PreActResNet |
79.9 |
95.2 |
CVPR2016 |
Inceptionv3 |
82.8 |
96.42 |
CVPR2016 |
Inceptionv4 |
82.3 |
96.2 |
AAAI2016 |
Inception-ResNet-v2 |
82.4 |
96.3 |
AAAI2016 |
Inceptionv4 + Inception-ResNet-v2 |
83.5 |
96.92 |
AAAI2016 |
RiR |
- |
- |
ICLR Workshop2016 |
Stochastic Depth ResNet |
78.02 |
- |
ECCV2016 |
WRN |
78.1 |
94.21 |
BMVC2016 |
squeezenet |
60.4 |
82.5 |
arXiv2017 |
GeNet |
72.13 |
90.26 |
ICCV2017 |
MetaQNN |
- |
- |
ICLR2017 |
PyramidNet |
80.8 |
95.3 |
CVPR2017 |
DenseNet |
79.2 |
94.71 |
ECCV2017 |
FractalNet |
75.8 |
92.61 |
ICLR2017 |
ResNext |
- |
96.97 |
CVPR2017 |
IGCV1 |
73.05 |
91.08 |
ICCV2017 |
Residual Attention Network |
80.5 |
95.2 |
CVPR2017 |
Xception |
79 |
94.5 |
CVPR2017 |
MobileNet |
70.6 |
- |
arXiv2017 |
PolyNet |
82.64 |
96.55 |
CVPR2017 |
DPN |
79 |
94.5 |
NIPS2017 |
Block-QNN |
77.4 |
93.54 |
CVPR2018 |
CRU-Net |
79.7 |
94.7 |
IJCAI2018 |
ShuffleNet |
75.3 |
- |
CVPR2018 |
CondenseNet |
73.8 |
91.7 |
CVPR2018 |
NasNet |
82.7 |
96.2 |
CVPR2018 |
MobileNetV2 |
74.7 |
- |
CVPR2018 |
IGCV2 |
70.07 |
- |
CVPR2018 |
hier |
79.7 |
94.8 |
ICLR2018 |
PNasNet |
82.9 |
96.2 |
ECCV2018 |
AmoebaNet |
83.9 |
96.6 |
arXiv2018 |
SENet |
- |
97.749 |
CVPR2018 |
ShuffleNetV2 |
81.44 |
- |
ECCV2018 |
IGCV3 |
72.2 |
- |
BMVC2018 |
MnasNet |
76.13 |
92.85 |
arXiv2018 |
論文和代碼
從 VGG開始,介紹了 GoogleNet、ResNet、Inception系列、DenseNet、Xception、SENet,還有輕量級網絡,如:MobileNet、ShuffleNet和IGCV系列。甚至還有最近很火的 NasNet系列網絡。每種網絡都帶有論文鏈接和多種復現的代碼鏈接。
awesome-semantic-segmentation
給大家推薦一個圖像分割(image segmentation)的最全資料項目。
你也許會說,雖然有圖像分割這個概念,但一般論文研究都具體到:
https://github.com/mrgloom/awesome-semantic-segmentation
- 語義分割(semantic segmentation)
- 實例分割(instance segmentation)
- 全景分割(panoptic segmentation)
圖像分割確實有這三類方向(嚴格來說,這句話並不准確),而且本文介紹的項目名為:awesome-semantic-segmentation。看起來是語義分割的資料匯總,但里面其實還包含了實例分割、醫學圖像分割和衛星圖像分割等資料,所以我就同一當成圖像分割來看了。
這是 mrgloom 大佬整理的圖像分割資料,主要包含以下內容:
- 語義分割
- 實例分割
- 數據集
- Benchmark
- 標注工具
- 醫學圖像分割
- 衛星圖像分割
- ...
其中每個部分介紹的都很詳細,比如一個論文,會相應介紹其多種復現的開源代碼。
語義分割
主要有:U-Net、SegNet、DeepLab系列、FCN、ENet、ICNet、ShelfNet、BiseNet、DFN和CCNet等網絡
實例分割
主要有:FCIS、DeepMask、Mask R-CNN 和 PANet 等網絡
數據集
主要有:COCO、KITTI 和 ApolloScape等數據集
標注工具
主要有:labelme、labelImgPlus和 labelbox等工具
benchmark_results
給大家推薦一個目標跟蹤(object/visual tracking)的最全資料項目:benchmark_results。
https://github.com/foolwood/benchmark_results
該項目主要包含以下內容:
- 目標跟蹤思維導圖
- OTB實驗結果
- Benchmark Results
- 論文和代碼
目標跟蹤思維導圖
一幅"思維導圖"縱覽目標跟蹤各大方向及代表性算法,比如:
- KCF
- CF2
- ECO
- SiamRPN
- SiamFC
- ...
OTB實驗結果
以及在常用數據集OTB上的實驗結果:
OTB2013
TB-100
TB-50
Benchmark Results
標准度量:AUC 和 Precision
論文和代碼
論文質量極高,均以各大頂會論文為主,並且都是最前沿的會議和算法。會議有CVPR2019、AAAI2019、NIPS2018和 ECCV2018。
算法涉及:SiamMask、SiamRPN++、C-RPN、DaSiamRPN、ACT、VITAL、SiamRPN、LSART、DRT和KCF系列等。
Awesome-Crowd-Counting
給大家推薦一個人群密度估計(Crowd Counting)的最全資料項目:Awesome-Crowd-Counting。
https://github.com/gjy3035/Awesome-Crowd-Counting
該項目主要包含以下內容:
- 代碼
- 數據集
- 論文
- 排行榜
代碼
原作者 Junyu Gao 開源了一個基於PyTorch的人群密度估計庫,其名稱為:Crowd Counting Code Framework,縮寫為 C^3 Framework。該庫可以在多種主流數據集上測試,提供很棒的baselines。
https://github.com/gjy3035/C-3-Framework
注:原作者Junyu Gao在CVPR 2019上發表了一篇人群密度估計相關的論文(果然是大佬)。感興趣的同學可以看一下:
《Learning from Synthetic Data for Crowd Counting in the Wild》
https://arxiv.org/abs/1903.03303
數據集
下面的數據集都是經典常用的,原文中都提供了下載鏈接,整理的很用心。
- GCC Dataset
- UCF-QNRF Dataset
- ShanghaiTech Dataset
- WorldExpo'10 Dataset
- UCF CC 50 Dataset
- Mall Dataset
- UCSD Dataset
- SmartCity Dataset
- AHU-Crowd Dataset
論文
論文分arXiv上的論文和已發表的頂會/頂刊論文(如CVPR、AAAI、T-PAMI、WACV、ACCV、TIP、ECCV和IJCAI等)
arXiv上的論文
2019 頂會/頂刊論文
2018 頂會/頂刊論文
注:還有2017、2016、2015及以后的論文,此處省略
排行榜
排行榜:不同數據集上不同算法的實驗結果。
ShanghaiTech Part A 數據集
ShanghaiTech Part B 數據集
UCF-QNRF 數據集
WorldExpo'10 數據集