caffe剛剛安裝配置結束,乘熱打鐵!
(一)環境准備
前面我有兩篇文章寫到caffe的搭建,第一篇cpu only ,第二篇是在服務器上搭建的,其中第二篇因為硬件環境更佳我們的步驟稍顯復雜。其實,第二篇也僅僅是caffe的初步搭建完成,還沒有編譯python接口,那么下面我們一起搞定吧!
首先請讀者再回過頭去看我的《Ubuntu16.04安裝配置Caffe》( http://www.cnblogs.com/xuanxufeng/p/6150593.html )
在這篇博文的結尾,我們再增加編譯Python接口,而這部分內容請參考我的博文《Ubuntu14.04搭建Caffe(僅cpu)》 http://www.cnblogs.com/xuanxufeng/p/6016945.html ,這篇文章從編譯Python接口部分看就好了。
(二)下載模型
作者在github上開源了代碼:Fully Convolutional Networks,我們首先將代碼下載並且解壓到家目錄下。
項目文件結構很清晰,如果想train自己的model,只需要修改一些文件路徑設置即可,這里我們應用已經train好的model來測試一下自己的圖片:
我們下載voc-fcn32s,voc-fcn16s以及voc-fcn8s的caffemodel(根據提供好的caffemodel-url),fcn-16s和fcn32s都是缺少deploy.prototxt的,我們根據train.prototxt稍加修改即可。注意,這里的caffemode-url其實在各個模型的文件夾下面都已經提供給我們了,請讀者細心找一找,看看是不是每一個文件夾下面都有一個caffemode-url的文件?打開里面會有模型的下載地址!
(三)修改infer.py文件
- caffe path的加入,由於FCN代碼和caffe代碼是獨立的文件夾,因此,須將caffe的Python接口加入到path中去。這里有兩種方案,一種是在所有代碼中出現
import caffe之前,加入:
1 import sys 2 sys.path.append('caffe根目錄/python')
- 另一種一勞永逸的方法是:在終端或者bashrc中將接口加入到
PYTHONPATH中:
export PYTHONPATH=caffe根目錄/python:$PYTHONPATH
本次我們采用后者。
在解壓代碼的根目錄下找到一個文件:infer.py。略微修改infer.py,就可以測試我們自己的圖片了,請大家根據自己實際情況來進行修改。
im = Image.open('voc-fcn8s/test.jpeg') 這里指的是測試圖片路徑!
net = caffe.Net('voc-fcn8s/deploy.prototxt', 'voc-fcn8s/fcn8s-heavy-pascal.caffemodel', caffe.TEST) ,這里指的是voc-fcn8s文件下的部署文件和模型。注意,fcn下每一個模型其實都對應於一個文件夾,而每個文件夾下應當放着這個模型的caffemodel文件和prototxt文件!
plt.savefig('test.png') ,這里指的是最終分割的結果應當放置在哪個路徑下,大家都知道,語義分割的結果應當是一張圖片!
修改完后的infer.py如下所示:
1 import numpy as np 2 from PIL import Image 3 import matplotlib.pyplot as plt 4 import caffe 5 6 # load image, switch to BGR, subtract mean, and make dims C x H x W for Caffe 7 im = Image.open('voc-fcn8s/test.jpeg') 8 in_ = np.array(im, dtype=np.float32) 9 in_ = in_[:,:,::-1] 10 in_ -= np.array((104.00698793,116.66876762,122.67891434)) 11 in_ = in_.transpose((2,0,1)) 12 13 # load net 14 net = caffe.Net('voc-fcn8s/deploy.prototxt', 'voc-fcn8s/fcn8s-heavy-pascal.caffemodel', caffe.TEST) 15 # shape for input (data blob is N x C x H x W), set data 16 net.blobs['data'].reshape(1, *in_.shape) 17 net.blobs['data'].data[...] = in_ 18 # run net and take argmax for prediction 19 net.forward() 20 out = net.blobs['score'].data[0].argmax(axis=0) 21 22 plt.imshow(out,cmap='gray'); 23 plt.axis('off') 24 plt.savefig('test.png') 25 #plt.show()

運行結束后會在軟件的根目錄下生成一個分割好的圖片test.png!



可能會遇到的問題:
(1)no display name and no $DISPLAY environment variable
其實,在Ubuntu虛擬終端里執行python infer.py是沒有任何錯誤的,但是我是通過遠程訪問連接服務器的方式運行程序的。所以在執行到最后的時候會報這個錯。不過不要害怕,
在stackoverflow中找到了終極解決辦法:

如圖中所示的步驟,找到matplotlibrc,將backend從tkAGG修改為AGG。
sudo gedit /home/xuanxufeng/.local/lib/python2.7/site-packages/matplotlib/mpl-data/matplotlibrc

再次在putty中執行就沒有任何問題了!
(2)在執行python infer.py時可能會提示缺少某一兩個模塊。
這個不用擔心,都是小問題,百度很容易搜到,一兩個命令安裝就好了~
(四) 結束語
從開始讀論文到現在,也算是前進了一小步,可以看見的一小步。在往后,隨着實驗的一步步進行,我還會再更新模型的訓練以及訓練數據集的制作!請各位看官耐心等待!
