LeNet:基於漸變的學習應用於文檔識別
AlexNet:具有深卷積神經網絡的ImageNet分類
ZFNet:可視化和理解卷積網絡
VGGNet:用於大規模圖像識別的非常深的卷積網絡
NiN:網絡中的網絡
GoogLeNet:卷入更深入
Inception-v3:重新思考計算機視覺的初始架構
ResNet:圖像識別的深度殘差學習
Stochastic_Depth:具有隨機深度的深層網絡
WResNet:非常深的網絡的加權殘差
Inception-ResNet:Inception-v4,inception-resnet以及剩余連接對學習的影響
Fractalnet:沒有殘差的超深層神經網絡
WRN:寬殘留網絡
ResNeXt:深層神經網絡的聚合殘差變換
DenseNet:密集連接的卷積網絡
PyramidNet:深金字塔殘留網絡
DPN:雙路徑網絡
SqueezeNet:AlexNet級准確度,參數減少50倍,模型尺寸小於0.5MB
MobileNets:用於移動視覺應用的高效卷積神經網絡
ShuffleNet:移動設備極高效的卷積神經網絡
又可以這樣分類:
CNN:
總結:利用權值共享【卷積操作】將神經網絡本來的全連接層替換為非全連接層,使輸入可以為尺度可變的張量。
可用結構:
(Max, mean)Pooling:降維;
全連接層:分類;
長短期記憶網絡(LSTMs)-- 推薦文章
長期短期記憶 - 這是一種循環型神經網絡(RNN),允許數據在網絡中向前和向后流動。
![]()
LSTM適合於處理和預測時間序列中間隔和延遲非常長的重要事件,隱馬爾可夫模型和其他序列學習方法給LSTM帶來了優勢 。
GAN:
總結:利用兩個網絡對抗生成模型,生成器與辨別器,生成器輸入圖像,生成所需圖像,辨別器辨別所需圖像與生成圖像,使生成器的生成圖像騙過辨別器。
可用結構:
CNN;(Recursive)Residual Network(殘差(遞歸)網絡);FCN(全卷積網絡);convolutional LSTM;

Autoencoder:
是一種人工神經網絡,用於高效編碼的無監督學習。
與GAN一樣,並不是單純的網絡結構,只是類似PCA一樣的東西,在無監督學習中的框架,利用conv與deconv降維升維來進行學習,分別叫做encoder與decoder編碼解碼,一般基於卷積網絡,encoder后相當於學習到了特征,而decoder后相當於還原了圖像,既可以用輸入圖像進行訓練,訓練好一層加深一層。再可以利用有監督微調,從而達到分類或者圖像轉換的目的。
可用結構:
CNN;Residual Network;

自動編碼器的目的是學習一組數據的表示(編碼),通常用於降維。 近來,自動編碼器概念已經越來越廣泛地應用於數據生成模型的學習當中。
殘差網絡Resnet:
利用上一級的輸入與結果相加來使深層網絡效果更好(一個殘差塊一般不小於兩層)。

U-NET
也是encoder-decoder,利用前一encoder的信息與decoder信息結合,兩者一一對應,共享信息。

[深度]強化學習 -- 推薦文章與 推薦文章
強化學習是智能系統從環境到行為映射的學習,以使獎勵信號(強化信號)函數值最大,強化學習中由環境提供的強化信號是對產生動作的好壞作一種評價(通常為標量信號)
它的原理是:如果Agent的某個行為策略導致環境正的獎賞(強化信號),那么Agent以后產生這個行為策略的趨勢便會加強。Agent的目標是在每個離散狀態發現最優策略以使期望的折扣獎賞和最大。
![]()
![]()
