awesome 整理的GitHub項目整理清單(必看!!!)


awesome 整理的GitHub項目整理清單(必看!!!)

廣告關閉

11.11 智慧上雲

雲服務器企業新用戶優先購,享雙11同等價格

Amusi 整理過的 awesome 系列項目:

  • GitHub:深度學習最全資料集錦
  • GitHub:車道線檢測最全資料集錦
  • GitHub:目標檢測最全論文集錦
  • GitHub:TensorFlow最全資料集錦
  • GitHub:圖像分類最全資料集錦
  • GitHub:圖像分割最全資料集錦
  • GitHub:目標跟蹤最全資料集錦
  • GitHub:人群密度估計最全資料集錦

以下,依次是awesome系列項目

Awesome-Deep-Learning:

https://github.com/ChristosChristofidis/awesome-deep-learning

該項目主要包含以下內容:

  • 免費在線書籍
  • 教程
  • 視頻和講座
  • 論文
  • 導讀
  • 學者
  • 網站
  • 數據集
  • 會議
  • 框架
  • 工具
  • 其它

awesome-lane-detection

awesome-lane-detection是Amusi 整理的關於車道線檢測的資料合集,已經發布到github上,歡迎star、fork。

據筆者了解,車道線檢測解決方案主要分為傳統圖像處理和深度學習兩種。看起來每個領域都可以這么說,但車道線檢測與其它研究方向不太一樣。因為檢測的目標可能是直線也可能是曲線,而且只是"線"而已,目前很多公司還在用傳統圖像處理方法來解決。

https://github.com/amusi/awesome-lane-detection

這個開源庫主要包括以下內容:

  • 論文(以2017之后為主)
  • 開源代碼
  • 博客
  • 數據集

awesome-Object-Detection

接下來,重點介紹一下這個“很copy”的庫。awesome-object-detection的目的是為了提供一個目標檢測(Object Detection)學習的平台。特點是:介紹最新的paper和最新的code(盡量更新!)由於Amusi還是初學者,目前還沒有辦法對每個paper進行介紹,但后續會推出paper精講的內容,也歡迎大家star,fork並pull自己所關注到最新object detection的工作。

https://github.com/amusi/awesome-object-detection

那來看看目前,awesome-object-detection里有哪些干貨吧~

為了節省篇幅,這里只介紹較為重要的工作:

  • R-CNN三件套(R-CNN Fast R-CNN和Faster R-CNN)
  • Light-Head R-CNN
  • Cascade R-CNN
  • YOLO三件套(YOLOv1 YOLOv2 YOLOv3)
  • SSD(SSD DSSD FSSD ESSD Pelee)
  • R-FCN
  • FPN
  • DSOD
  • RetinaNet
  • DetNet
  • ...

大家對常見的R-CNN系列和YOLO系列一定很熟悉了,這里Amusi也不想重復,因為顯得沒有逼格~這里主要簡單推薦兩篇paper,來凸顯一下awesome-object-detection的意義。

TensorFlow-From-Zero-To-One

本文分享一份由Amusi整理的TensorFlow最全資料集錦:TensorFlow-From-Zero-To-One。主要包含TensorFlow入門指南、官方&社區、在線教程、視頻教程、書籍資源和實戰項目。

https://github.com/amusi/TensorFlow-From-Zero-To-One

CVer計划推出幾個深度學習框架的資料集錦,統一命名為:XXX-From-Zero-To-One。下面po一幅深度學習框架發展的重要歷史點:

來自MIT Deep Learning

從上圖可知,TensorFlow和PyTorch是目前深度學習框架中的扛把子。當然這個大方向基調很早之前就奠定下來了,畢竟TensorFlow是Google家的,PyTorch是Facebook家的。

所以目前已經建立兩個開源庫:

  • TensorFlow-From-Zero-To-One
  • PyTorch-From-Zero-To-One

awesome-image-classification

給大家推薦一個圖像分類(Image Classification)的最全資料項目。

這是 weiaicunzai 在學習圖像分類時,整理的論文和代碼等資源合集。其中論文年份是從2014年開始,所列出的論文都是在ImageNet上有一定 TOP1和TOP5 准確度的。

https://github.com/weiaicunzai/awesome-image-classification

這個開源庫主要包括以下內容:

  • 網絡實驗數據表格
  • 論文&代碼

網絡實驗數據表格

  • ConvNet:卷積神經網絡名稱
  • ImageNet top1 acc:該網絡在ImageNet上Top1 最佳准確率
  • ImageNet top5 acc:該網絡在ImageNet上Top5 最佳准確率
  • Published In:發表源(期刊/會議/arXiv)

ConvNet

ImageNet top1 acc

ImageNet top5 acc

Published In

Vgg

76.3

93.2

ICLR2015

GoogleNet

-

93.33

CVPR2015

PReLU-nets

-

95.06

ICCV2015

ResNet

-

96.43

CVPR2015

PreActResNet

79.9

95.2

CVPR2016

Inceptionv3

82.8

96.42

CVPR2016

Inceptionv4

82.3

96.2

AAAI2016

Inception-ResNet-v2

82.4

96.3

AAAI2016

Inceptionv4 + Inception-ResNet-v2

83.5

96.92

AAAI2016

RiR

-

-

ICLR Workshop2016

Stochastic Depth ResNet

78.02

-

ECCV2016

WRN

78.1

94.21

BMVC2016

squeezenet

60.4

82.5

arXiv2017

GeNet

72.13

90.26

ICCV2017

MetaQNN

-

-

ICLR2017

PyramidNet

80.8

95.3

CVPR2017

DenseNet

79.2

94.71

ECCV2017

FractalNet

75.8

92.61

ICLR2017

ResNext

-

96.97

CVPR2017

IGCV1

73.05

91.08

ICCV2017

Residual Attention Network

80.5

95.2

CVPR2017

Xception

79

94.5

CVPR2017

MobileNet

70.6

-

arXiv2017

PolyNet

82.64

96.55

CVPR2017

DPN

79

94.5

NIPS2017

Block-QNN

77.4

93.54

CVPR2018

CRU-Net

79.7

94.7

IJCAI2018

ShuffleNet

75.3

-

CVPR2018

CondenseNet

73.8

91.7

CVPR2018

NasNet

82.7

96.2

CVPR2018

MobileNetV2

74.7

-

CVPR2018

IGCV2

70.07

-

CVPR2018

hier

79.7

94.8

ICLR2018

PNasNet

82.9

96.2

ECCV2018

AmoebaNet

83.9

96.6

arXiv2018

SENet

-

97.749

CVPR2018

ShuffleNetV2

81.44

-

ECCV2018

IGCV3

72.2

-

BMVC2018

MnasNet

76.13

92.85

arXiv2018

論文和代碼

從 VGG開始,介紹了 GoogleNet、ResNet、Inception系列、DenseNet、Xception、SENet,還有輕量級網絡,如:MobileNet、ShuffleNet和IGCV系列。甚至還有最近很火的 NasNet系列網絡。每種網絡都帶有論文鏈接和多種復現的代碼鏈接。

awesome-semantic-segmentation

給大家推薦一個圖像分割(image segmentation)的最全資料項目。

你也許會說,雖然有圖像分割這個概念,但一般論文研究都具體到:

https://github.com/mrgloom/awesome-semantic-segmentation

  • 語義分割(semantic segmentation)
  • 實例分割(instance segmentation)
  • 全景分割(panoptic segmentation)

圖像分割確實有這三類方向(嚴格來說,這句話並不准確),而且本文介紹的項目名為:awesome-semantic-segmentation。看起來是語義分割的資料匯總,但里面其實還包含了實例分割、醫學圖像分割和衛星圖像分割等資料,所以我就同一當成圖像分割來看了。

這是 mrgloom 大佬整理的圖像分割資料,主要包含以下內容:

  • 語義分割
  • 實例分割
  • 數據集
  • Benchmark
  • 標注工具
  • 醫學圖像分割
  • 衛星圖像分割
  • ...

其中每個部分介紹的都很詳細,比如一個論文,會相應介紹其多種復現的開源代碼。

語義分割

主要有:U-Net、SegNet、DeepLab系列、FCN、ENet、ICNet、ShelfNet、BiseNet、DFN和CCNet等網絡

實例分割

主要有:FCIS、DeepMask、Mask R-CNN 和 PANet 等網絡

數據集

主要有:COCO、KITTI 和 ApolloScape等數據集

標注工具

主要有:labelme、labelImgPlus和 labelbox等工具

benchmark_results

給大家推薦一個目標跟蹤(object/visual tracking)的最全資料項目:benchmark_results。

https://github.com/foolwood/benchmark_results

該項目主要包含以下內容:

  • 目標跟蹤思維導圖
  • OTB實驗結果
  • Benchmark Results
  • 論文和代碼

目標跟蹤思維導圖

一幅"思維導圖"縱覽目標跟蹤各大方向及代表性算法,比如:

  • KCF
  • CF2
  • ECO
  • SiamRPN
  • SiamFC
  • ...

OTB實驗結果

以及在常用數據集OTB上的實驗結果:

OTB2013

TB-100

TB-50

Benchmark Results

標准度量:AUC 和 Precision

論文和代碼

論文質量極高,均以各大頂會論文為主,並且都是最前沿的會議和算法。會議有CVPR2019、AAAI2019、NIPS2018和 ECCV2018。

算法涉及:SiamMask、SiamRPN++、C-RPN、DaSiamRPN、ACT、VITAL、SiamRPN、LSART、DRT和KCF系列等。

Awesome-Crowd-Counting

給大家推薦一個人群密度估計(Crowd Counting)的最全資料項目:Awesome-Crowd-Counting。

https://github.com/gjy3035/Awesome-Crowd-Counting

該項目主要包含以下內容:

  • 代碼
  • 數據集
  • 論文
  • 排行榜

代碼

原作者 Junyu Gao 開源了一個基於PyTorch的人群密度估計庫,其名稱為:Crowd Counting Code Framework,縮寫為 C^3 Framework。該庫可以在多種主流數據集上測試,提供很棒的baselines。

https://github.com/gjy3035/C-3-Framework

注:原作者Junyu Gao在CVPR 2019上發表了一篇人群密度估計相關的論文(果然是大佬)。感興趣的同學可以看一下:

《Learning from Synthetic Data for Crowd Counting in the Wild》

https://arxiv.org/abs/1903.03303

數據集

下面的數據集都是經典常用的,原文中都提供了下載鏈接,整理的很用心。

  • GCC Dataset
  • UCF-QNRF Dataset
  • ShanghaiTech Dataset
  • WorldExpo'10 Dataset
  • UCF CC 50 Dataset
  • Mall Dataset
  • UCSD Dataset
  • SmartCity Dataset
  • AHU-Crowd Dataset

論文

論文分arXiv上的論文和已發表的頂會/頂刊論文(如CVPR、AAAI、T-PAMI、WACV、ACCV、TIP、ECCV和IJCAI等)

arXiv上的論文

2019 頂會/頂刊論文

2018 頂會/頂刊論文

注:還有2017、2016、2015及以后的論文,此處省略

排行榜

排行榜:不同數據集上不同算法的實驗結果。

ShanghaiTech Part A 數據集

ShanghaiTech Part B 數據集

UCF-QNRF 數據集

WorldExpo'10 數據集

原文發布於微信公眾號 - 目標檢測和深度學習(The_leader_of_DL_CV)

原文發表時間:2019-05-18

本文參與騰訊雲自媒體分享計划,歡迎正在閱讀的你也加入,一起分享。

發表於 2019-05-21


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM