深度學習基礎(常見的網絡2)


LeNet:基於漸變的學習應用於文檔識別

AlexNet:具有深卷積神經網絡的ImageNet分類

ZFNet:可視化和理解卷積網絡

VGGNet:用於大規模圖像識別的非常深的卷積網絡

NiN:網絡中的網絡

GoogLeNet:卷入更深入

Inception-v3:重新思考計算機視覺的初始架構

ResNet:圖像識別的深度殘差學習

Stochastic_Depth:具有隨機深度的深層網絡

WResNet:非常深的網絡的加權殘差

Inception-ResNet:Inception-v4,inception-resnet以及剩余連接對學習的影響

Fractalnet:沒有殘差的超深層神經網絡

WRN:寬殘留網絡

ResNeXt:深層神經網絡的聚合殘差變換

DenseNet:密集連接的卷積網絡

PyramidNet:深金字塔殘留網絡

DPN:雙路徑網絡

SqueezeNet:AlexNet級准確度,參數減少50倍,模型尺寸小於0.5MB

MobileNets:用於移動視覺應用的高效卷積神經網絡

ShuffleNet:移動設備極高效的卷積神經網絡

又可以這樣分類:

CNN:

總結:利用權值共享【卷積操作】將神經網絡本來的全連接層替換為非全連接層,使輸入可以為尺度可變的張量。

可用結構:

(Max, mean)Pooling:降維;

全連接層:分類;

循環神經網絡(RNNs)--推薦文章

是一類人工神經網絡,單元之間的連接形成一個有向循環。這使得它可以表現出動態的時間行為。與前饋神經網絡不同 ,RNN可以使用其內部存儲器來處理任意輸入序列。


 
 

這使得它們適用於諸如不分段,連接手寫識別或語音識別等任務。

遞歸神經網絡(RNNs)--推薦文章

是一種通過在一個結構上遞歸及應用相同一組權重來創建的深度神經網絡,通過遍歷給定拓撲順序的結構,對可變大小的輸入結構產生結構化的預測或標量預測。


 
 

在自然語言處理中,RNNs已經成功地用於學習序列和樹結構 ,主要是基於詞嵌入的短語和句子連續表示 。

 

長短期記憶網絡(LSTMs)-- 推薦文章

 

長期短期記憶 - 這是一種循環型神經網絡(RNN),允許數據在網絡中向前和向后流動。


 

 

LSTM適合於處理和預測時間序列中間隔和延遲非常長的重要事件,隱馬爾可夫模型和其他序列學習方法給LSTM帶來了優勢 。

 

GAN:

總結:利用兩個網絡對抗生成模型,生成器與辨別器,生成器輸入圖像,生成所需圖像,辨別器辨別所需圖像與生成圖像,使生成器的生成圖像騙過辨別器。

可用結構:

CNN;(Recursive)Residual Network(殘差(遞歸)網絡);FCN(全卷積網絡);convolutional LSTM;

Autoencoder:

是一種人工神經網絡,用於高效編碼的無監督學習。

與GAN一樣,並不是單純的網絡結構,只是類似PCA一樣的東西,在無監督學習中的框架,利用conv與deconv降維升維來進行學習,分別叫做encoder與decoder編碼解碼,一般基於卷積網絡,encoder后相當於學習到了特征,而decoder后相當於還原了圖像,既可以用輸入圖像進行訓練,訓練好一層加深一層。再可以利用有監督微調,從而達到分類或者圖像轉換的目的。

可用結構:

CNN;Residual Network;

自動編碼器的目的是學習一組數據的表示(編碼),通常用於降維。 近來,自動編碼器概念已經越來越廣泛地應用於數據生成模型的學習當中。

殘差網絡Resnet:

利用上一級的輸入與結果相加來使深層網絡效果更好(一個殘差塊一般不小於兩層)。

 

U-NET

也是encoder-decoder,利用前一encoder的信息與decoder信息結合,兩者一一對應,共享信息。

 

[深度]強化學習 -- 推薦文章與 推薦文章

強化學習是智能系統從環境到行為映射的學習,以使獎勵信號(強化信號)函數值最大,強化學習中由環境提供的強化信號是對產生動作的好壞作一種評價(通常為標量信號)

它的原理是:如果Agent的某個行為策略導致環境正的獎賞(強化信號),那么Agent以后產生這個行為策略的趨勢便會加強。Agent的目標是在每個離散狀態發現最優策略以使期望的折扣獎賞和最大。


 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM