對於已經訓練完成的caffemodel,對於單個的圖片預測,用python接口來調用是一件非常方便的事情,下面就來講述如何用python調用已經訓練完成的caffemodel,以及prototxt,網上關於這一方面的教程已經是比較多的了,但是我想針對我做的過程發現的一些問題做一個總結
,先給出幾個用python調用caffemodel的鏈接,鏈接1,鏈接2,鏈接3,主要是參考鏈接1的內容,整體代碼如下,
1 #coding=utf-8 2 import sys 3 import numpy as np 4 import cv2 5 from glob import glob 6 from tqdm import tqdm 7 caffe_root = '/usr/local/caffe/' 8 sys.path.insert(0, caffe_root + 'python') 9 import caffe 10 import multiprocessing 11 12 model_file = '/home/ying/data2/shiyongjie/mpc/res50/acc/resnet_50_deploy.prototxt' # deploy文件 13 pretrained = '/home/ying/data2/shiyongjie/mpc/res50/acc/model_iter_280000.caffemodel' # 訓練的caffemodel 14 image_file = '/home/ying/data2/shiyongjie/mpc/coal_data/0/output/0_ffff4083-a13a-4e62-9870-59cd70709f7c.JPEG' 15 mean_file = '/home/ying/data2/shiyongjie/mpc/coal_data/mean_train.npy' 16 net = caffe.Net(model_file, pretrained, caffe.TEST) #加載model和network 17 18 #圖片預處理設置 19 transformer = caffe.io.Transformer({'data': net.blobs['data'].data.shape}) #設定圖片的shape格式(1,3,28,28) 20 transformer.set_transpose('data', (2,0,1)) #改變維度的順序,由原始圖片(28,28,3)變為(3,28,28) 21 transformer.set_mean('data', np.load(mean_file).mean(1).mean(1)) #減去均值,前面訓練模型時沒有減均值,這兒就不用 22 transformer.set_raw_scale('data', 255) # 縮放到【0,255】之間 23 transformer.set_channel_swap('data', (2,1,0)) #交換通道,將圖片由RGB變為BGR 24 25 print('#$%^&#@*!') 26 image_file_list = glob('/home/ying/data2/shiyongjie/mpc/coal_data/0/output/*JPEG') # 列出目錄下的所有jpeg圖片 27 image_file_list.sort() 28 image_file_list = image_file_list[:len(image_file_list)/2] # 速度預測非常慢,將list拆分 29 # pool = multiprocessing.Pool(processes = 4) 30 results = [] 31 for image_file in tqdm(image_file_list): # tqdm顯示進度條 32 im = caffe.io.load_image(image_file) 33 net.blobs['data'].data[...] = transformer.preprocess('data', im) #執行上面設置的圖片預處理操作,並將圖片載入到blob中 34 out = net.forward() 35 top_k = net.blobs['prob'].data[0].flatten().argsort()[-1:-6:-1] 36 results.append(top_k[0]) # 將預測的結果保存到results中 37 # print(top_k[0]) 38 # for i in np.arange(top_k.size): 39 # print top_k[i] 40 acc0 = float(results.count(0))/float(len(image_file_list)) # 計算預測四類結果的概率 41 acc1 = float(results.count(1))/float(len(image_file_list)) 42 acc2 = float(results.count(2))/float(len(image_file_list)) 43 acc3 = float(results.count(3))/float(len(image_file_list)) 44 print(acc0, acc1, acc2, acc3)
這里其實有很多細節的問題,先給自己挖個坑,主要有,deploy文件與一般的train_val.prototxt文件有些許不同,看上面第三個鏈接,他們加載prototxt的是lenet.prototxt,去caffe/example/mnist/lenet.prototxt查看這個文件,如下
實際上左邊是deploy的,右邊是train_val的,可以看出左右的區別就是地一層,右邊train和test都是data層,左邊是input層,其余全都一樣,所以deploy也是很有講究的,mnist是在訓練的時候就沒有減去均值,測試的時候加載均值文件在python內部寫,見上述代碼
實際上,我測試用的deploy與mnist又有些許不同,如下
同時修改最后一行
我用的resnet基本上lr以及權重初始化的參數都已經取消了,最后一個name用prob,測試的時候輸出的是預測為每一類的概率,在python最后的輸出net.blobs['prob']也能夠看出,感覺是個字典,給自己挖個坑
可以看出,deploy文件與train_val文件是有很大的不同的,這種不同可能與平台無關,在python是這樣,在c++也可能是這樣
但是用python調用速度非常慢,這樣說吧,5w張圖片要6個小時,速度相當慢,我一個同學,用c++調用同樣的caffemodel200張圖片,0.4s,5w張圖片100s就搞定