原文:Caffe源碼解析2:SycedMem

轉載請注明出處,樓燚 y 航的blog,http: www.cnblogs.com louyihang loves baiyan 看到SyncedMem就知道,這是在做內存同步的操作。這類個類的代碼比較少,但是作用是非常明顯的。文件對應着syncedmem.hpp,着syncedmem.cpp 首先是兩個全局的內聯函數。如果機器是支持GPU的並且安裝了cuda,通過cudaMallocHost分配 ...

2016-01-22 10:58 2 8250 推薦指數:

查看詳情

Caffe源碼解析1:Blob

轉載請注明出處,樓燚(yì)航的blog,http://www.cnblogs.com/louyihang-loves-baiyan/ 首先看到的是Blob這個類,Blob是作為Caffe中數據流通的一個基本類,網絡各層之間的數據是通過Blob來傳遞的。這里整個代碼是非常規范的,基本上條件編譯 ...

Fri Jan 22 05:24:00 CST 2016 2 35327
Caffe源碼解析3:Layer

轉載請注明出處,樓燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ layer這個類可以說是里面最終的一個基本類了,深度網絡呢就 ...

Sat Jan 23 07:48:00 CST 2016 1 11154
Caffe2源碼解析之core

寫在前面 在對Tensorflow的后端源碼進行了拆解(參見tensorflow源碼解析系列文章索引)之后,很想跟其它深度學習框架的實現進行對比,根據框架的流行程度,先選擇了Pytorch。Pytorch的后端核心是直接復用了Caffe2,因此本文針對Caffe2源碼的core模塊進行了簡單拆解 ...

Sat Sep 22 19:22:00 CST 2018 0 1158
Caffe源碼解析4: Data_layer

轉載請注明出處,樓燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ data_layer應該是網絡的最底層,主要是將數據送給bl ...

Sat Jan 23 21:10:00 CST 2016 1 14307
Caffe源碼解析6:Neuron_Layer

\) 只依賴於相應的輸入 \(x\)。在Caffe里面所有的layer的實現都放在src文件夾下的la ...

Fri Feb 19 22:16:00 CST 2016 0 4700
Caffe源碼解析7:Pooling_Layer

轉載請注明出處,樓燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ Pooling 層一般在網絡中是跟在Conv卷積層之后,做采樣操作,其實是為了進一步縮小feature map,同時也能增大神經元的視野。在Caffe中 ...

Wed Feb 24 05:31:00 CST 2016 0 12928
Caffe源碼解析5:Conv_Layer

轉載請注明出處,樓燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ Vision_layer里面主要是包括了一些關於一些視覺上的 ...

Sun Jan 24 07:30:00 CST 2016 2 19463
caffe中ConvolutionLayer的前向和反向傳播解析源碼閱讀

一、前向傳播 在caffe中,卷積層做卷積的過程被轉化成了由卷積核的參數組成的權重矩陣weights(簡記為W)和feature map中的元素組成的輸入矩陣(簡記為Cin)的矩陣乘積W * Cin。在進行乘積之前,需要對卷積核的參數和feature map作處理,以得到W和Cin。 下面 ...

Wed Mar 14 06:26:00 CST 2018 0 1809
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM