現在一直都是用Caffe在跑別人寫好的網絡,如何運行自定義的網絡和圖片,是接下來要學習的一點。
1. 使用Caffe中自帶的網絡模型來運行自己的數據集
參考 [1] :http://www.cnblogs.com/denny402/p/5083300.html,下面幾乎是全文轉載,有部分對自己踩過的坑的補充,向原作者致敬!
一、准備數據
我去網上找了一些其它的圖片來代替,共有500張圖片,分為大巴車、恐龍、大象、鮮花和馬五個類,每個類100張。需要的同學,可到我的網盤下載:http://pan.baidu.com/s/1nuqlTnN
編號分別以3,4,5,6,7開頭,各為一類。我從其中每類選出20張作為測試,其余80張作為訓練。因此最終訓練圖片400張,測試圖片100張,共5類。我將圖片放在caffe根目錄下的data文件夾下面。即訓練圖片目錄:data/re/train/ ,測試圖片目錄: data/re/test/
二、轉換為lmdb格式
具體的轉換過程,可參見我的前一篇博文:Caffe學習系列(11):圖像數據轉換成db(leveldb/lmdb)文件
首先,在examples下面創建一個myfile的文件夾,來用存放配置文件和腳本文件。然后編寫一個腳本create_filelist.sh,用來生成train.txt和test.txt清單文件
# mkdir examples/myfile # vi examples/myfile/create_filelist.sh
編輯此文件,寫入如下代碼,並保存
#!/usr/bin/env sh DATA=data/re/ MY=examples/myfile
echo "Create train.txt..." rm -rf $MY/train.txt for i in 3 4 5 6 7 do find $DATA/train -name $i*.jpg | cut -d '/' -f4-5 | sed "s/$/ $i/">>$MY/train.txt done echo "Create test.txt..." rm -rf $MY/test.txt for i in 3 4 5 6 7 do find $DATA/test -name $i*.jpg | cut -d '/' -f4-5 | sed "s/$/ $i/">>$MY/test.txt done echo "All done"
然后,運行此腳本
# sh examples/myfile/create_filelist.sh
成功的話,就會在examples/myfile/ 文件夾下生成train.txt和test.txt兩個文本文件,里面就是圖片的列表清單。
接着再編寫一個腳本文件,調用convert_imageset命令來轉換數據格式。
# vi examples/myfile/create_lmdb.sh
插入並保存:(注意修改Caffe的絕對路徑)
#!/usr/bin/env sh MY=examples/myfile echo "Create train lmdb.." rm -rf $MY/img_train_lmdb build/tools/convert_imageset \ --shuffle \ --resize_height=256 \ --resize_width=256 \ /home/xxx/caffe/data/re/ \ $MY/train.txt \ $MY/img_train_lmdb echo "Create test lmdb.." rm -rf $MY/img_test_lmdb build/tools/convert_imageset \ --shuffle \ --resize_width=256 \ --resize_height=256 \ /home/xxx/caffe/data/re/ \ $MY/test.txt \ $MY/img_test_lmdb echo "All Done.."
因為圖片大小不一,因此我統一轉換成256*256大小。
運行腳本:
# sh examples/myfile/create_lmdb.sh
運行成功后,會在 examples/myfile下面生成兩個文件夾img_train_lmdb和img_test_lmdb,分別用於保存圖片轉換后的lmdb文件。
三、計算均值並保存
圖片減去均值再訓練,會提高訓練速度和精度。因此,一般都會有這個操作。
caffe程序提供了一個計算均值的文件compute_image_mean.cpp,我們直接使用就可以了
# build/tools/compute_image_mean examples/myfile/img_train_lmdb examples/myfile/mean.binaryproto
compute_image_mean帶兩個參數,第一個參數是lmdb訓練數據位置,第二個參數設定均值文件的名字及保存路徑。
運行成功后,會在 examples/myfile/ 下面生成一個mean.binaryproto的均值文件。
四、創建模型並編寫配置文件
模型就用程序自帶的caffenet模型,位置在 models/bvlc_reference_caffenet/文件夾下, 將需要的兩個配置文件,復制到myfile文件夾內
# cp models/bvlc_reference_caffenet/solver.prototxt examples/myfile/ # cp models/bvlc_reference_caffenet/train_val.prototxt examples/myfile/
修改其中的solver.prototxt
# sudo vi examples/myfile/solver.prototxt
net: "examples/myfile/train_val.prototxt" test_iter: 2 test_interval: 50 base_lr: 0.001 lr_policy: "step" gamma: 0.1 stepsize: 100 display: 20 max_iter: 500 momentum: 0.9 weight_decay: 0.005 solver_mode: GPU
100個測試數據,batch_size為50,因此test_iter設置為2,就能全cover了。在訓練過程中,調整學習率,逐步變小。
修改train_val.protxt,只需要修改兩個階段的data層就可以了,其它可以不用管。
name: "CaffeNet" layer { name: "data" type: "Data" top: "data" top: "label" include { phase: TRAIN } transform_param { mirror: true crop_size: 227 mean_file: "examples/myfile/mean.binaryproto" } data_param { source: "examples/myfile/img_train_lmdb" batch_size: 16 // 這里注意修改為16 backend: LMDB } } layer { name: "data" type: "Data" top: "data" top: "label" include { phase: TEST } transform_param { mirror: false crop_size: 227 mean_file: "examples/myfile/mean.binaryproto" } data_param { source: "examples/myfile/img_test_lmdb" batch_size: 50 backend: LMDB } }
注意修改batch_size為16,不能是256
否則會出現Restarting data prefetching from start.一直重復出現
參考 [2] ,原因是
訓練集太小了,於是我把batch_size改小了,從原來的256改成16,才OK了。
五、訓練和測試
如果前面都沒有問題,數據准備好了,配置文件也配置好了,這一步就比較簡單了。
# sudo build/tools/caffe train -solver examples/myfile/solver.prototxt
運行時間和最后的精確度,會根據機器配置,參數設置的不同而不同。我的是gpu+cudnn運行500次,大約3分鍾,精度為91%。
接下來會探究如何定義自己的網絡,
感興趣的同學可以去研究一下TFlearning和Pytorch,比Caffe以及TF更容易學懂(兩者都是在TF的基礎上的高級API)
參考文獻:
[1] http://www.cnblogs.com/denny402/p/5083300.html
[2] http://blog.csdn.net/iambool/article/details/69526089