python調用caffe實現預測


對於已經訓練完成的caffemodel,對於單個的圖片預測,用python接口來調用是一件非常方便的事情,下面就來講述如何用python調用已經訓練完成的caffemodel,以及prototxt,網上關於這一方面的教程已經是比較多的了,但是我想針對我做的過程發現的一些問題做一個總結

,先給出幾個用python調用caffemodel的鏈接,鏈接1鏈接2鏈接3,主要是參考鏈接1的內容,整體代碼如下,

 1 #coding=utf-8
 2 import sys
 3 import numpy as np
 4 import cv2
 5 from glob import glob
 6 from tqdm import tqdm
 7 caffe_root = '/usr/local/caffe/'
 8 sys.path.insert(0, caffe_root + 'python')
 9 import caffe
10 import multiprocessing
11 
12 model_file = '/home/ying/data2/shiyongjie/mpc/res50/acc/resnet_50_deploy.prototxt'  # deploy文件
13 pretrained = '/home/ying/data2/shiyongjie/mpc/res50/acc/model_iter_280000.caffemodel'  # 訓練的caffemodel
14 image_file = '/home/ying/data2/shiyongjie/mpc/coal_data/0/output/0_ffff4083-a13a-4e62-9870-59cd70709f7c.JPEG'
15 mean_file = '/home/ying/data2/shiyongjie/mpc/coal_data/mean_train.npy'
16 net = caffe.Net(model_file, pretrained, caffe.TEST)   #加載model和network
17 
18 #圖片預處理設置
19 transformer = caffe.io.Transformer({'data': net.blobs['data'].data.shape})  #設定圖片的shape格式(1,3,28,28)
20 transformer.set_transpose('data', (2,0,1))    #改變維度的順序,由原始圖片(28,28,3)變為(3,28,28)
21 transformer.set_mean('data', np.load(mean_file).mean(1).mean(1))    #減去均值,前面訓練模型時沒有減均值,這兒就不用
22 transformer.set_raw_scale('data', 255)    # 縮放到【0,255】之間
23 transformer.set_channel_swap('data', (2,1,0))   #交換通道,將圖片由RGB變為BGR
24 
25 print('#$%^&#@*!')
26 image_file_list = glob('/home/ying/data2/shiyongjie/mpc/coal_data/0/output/*JPEG')  # 列出目錄下的所有jpeg圖片
27 image_file_list.sort()
28 image_file_list = image_file_list[:len(image_file_list)/2]  # 速度預測非常慢,將list拆分
29 # pool = multiprocessing.Pool(processes = 4)
30 results = []
31 for image_file in tqdm(image_file_list):  # tqdm顯示進度條
32     im = caffe.io.load_image(image_file)
33     net.blobs['data'].data[...] = transformer.preprocess('data', im)      #執行上面設置的圖片預處理操作,並將圖片載入到blob中
34     out = net.forward()
35     top_k = net.blobs['prob'].data[0].flatten().argsort()[-1:-6:-1]
36     results.append(top_k[0])  # 將預測的結果保存到results中
37     # print(top_k[0])
38     # for i in np.arange(top_k.size):
39     #    print top_k[i]
40 acc0 = float(results.count(0))/float(len(image_file_list))  # 計算預測四類結果的概率
41 acc1 = float(results.count(1))/float(len(image_file_list))
42 acc2 = float(results.count(2))/float(len(image_file_list))
43 acc3 = float(results.count(3))/float(len(image_file_list))
44 print(acc0, acc1, acc2, acc3)

這里其實有很多細節的問題,先給自己挖個坑,主要有,deploy文件與一般的train_val.prototxt文件有些許不同,看上面第三個鏈接,他們加載prototxt的是lenet.prototxt,去caffe/example/mnist/lenet.prototxt查看這個文件,如下

實際上左邊是deploy的,右邊是train_val的,可以看出左右的區別就是地一層,右邊train和test都是data層,左邊是input層,其余全都一樣,所以deploy也是很有講究的,mnist是在訓練的時候就沒有減去均值,測試的時候加載均值文件在python內部寫,見上述代碼

實際上,我測試用的deploy與mnist又有些許不同,如下

同時修改最后一行

我用的resnet基本上lr以及權重初始化的參數都已經取消了,最后一個name用prob,測試的時候輸出的是預測為每一類的概率,在python最后的輸出net.blobs['prob']也能夠看出,感覺是個字典,給自己挖個坑

可以看出,deploy文件與train_val文件是有很大的不同的,這種不同可能與平台無關,在python是這樣,在c++也可能是這樣

但是用python調用速度非常慢,這樣說吧,5w張圖片要6個小時,速度相當慢,我一個同學,用c++調用同樣的caffemodel200張圖片,0.4s,5w張圖片100s就搞定

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM