原項目地址:keras-yolo3-improved
selfdata_keras_yolov3.ipynb,訓練ipynb
selfdata_yolov3_test.ipynb,預測ipynb
yolo_matt.py,預測時候改進輸出結果
首先基於作者數據進行訓練,而后自己提供數據集解決專門問題。
一、數據准備
地址,xmin,ymin,xmax,ymax,類別ID然后空格下一個box,每張圖一行。
images
/images_all
/
86900fb6gy1fl4822o7qmj22ao328qv7.jpg
10,
259,
399,
580,
27
images
/images_all
/b95fe9cbgw1eyw88vlifjj20c70hsq46.jpg
10,
353,
439,
640,
29
images
/images_all
/
005CsCZ0jw1f1n8kcj8m1j30ku0kumz6.jpg
75,
141,
343,
321,
27
二、網絡訓練
原keras源碼中有兩段訓練:
第一段凍結前面的
249層進行遷移學習(原有的yolov3)
第二段解凍全部層進行訓練
由於使用專業領域圖像,與原有的yolov3訓練集差異太大,
所以第一階段的遷移學習階段沒用,故
直接開始第二段或重新根據darknet53訓練。
可能需要預下載的模型:
yolo_weights.h5 預訓練模型(用作遷移)
python convert.py
-w yolov3.cfg yolov3.weights model_data
/yolo_weights.h5
darknet53.weights (用作重新訓練)
wget https
:
//pjreddie.com/media/files/darknet53.conv.74
yolo.h5 (yolov3-VOC訓練模型,可以直接用來做預測 )
python convert.py yolov3.cfg yolov3.weights model_data
/yolo.h5
訓練時候需要的參數
class yolo_args
:
annotation_path
=
'train.txt'
log_dir
=
'logs/003/'
classes_path
=
'model_data/class_file_en.txt'
anchors_path
=
'model_data/yolo_anchors.txt'
input_shape
= (
416,
416)
# multiple of 32, hw
# 608*608 416*416 320*320
val_split
=
0.
1
batch_size
=
16
epochs_stage_1
=
10
stage_1_train
=
False
epochs_finally
=
100
finally_train
=
True
weights_path
=
'logs/003/ep009-loss33.297-val_loss32.851.h5'
# 可以使用'model_data/tiny_yolo_weights.h5' 也可以使用tiny_yolo的:'model_data/yolo_weights.h5'
# train
_main(yolo_args)
其中:
annotation_path就是數據集准備的txt
log_dir ,Model存放地址,譬如:events.out.tfevents.
1545966202、ep077
-loss19.
318
-val_loss19.
682.h5
classes_path ,分類內容
anchors_path ,yolo anchors,可自行調整,也可以使用默認的
input_shape ,一般是
416
epochs_stage_1
=
10和 stage_1_train
=
False,是同一個,也就是是否進行遷移學習(stage_1_train ),要學習的話,學習幾個epoch(epochs_stage_1 )
epochs_finally
=
100和 finally_train
=
True ,是,是否進行后面開放所有層的學習(finally_train ),學習幾個epoch(epochs_finally)
weights_path ,調用model的路徑
三、預測和結果優化
預測代碼參考:
import
sys
import argparse
from yolo
import YOLO, detect_video
from PIL
import Image
yolo_test_args
= {
"model_path"
:
'model_data/yolo.h5',
"anchors_path"
:
'model_data/yolo_anchors.txt',
"classes_path"
:
'model_data/coco_classes.txt',
"score"
:
0.
3,
"iou"
:
0.
45,
"model_image_size"
: (
416,
416),
"gpu_num"
:
1,
}
yolo_test
= YOLO(
**yolo_test_args)
image
= Image.
open(
'images/part1/path1.jpg')
r_image
= yolo_test.detect_image(image)
r_image.show()
預測結果優化:
import
sys
import argparse
from yolo_matt
import YOLO, detect_video
from PIL
import Image
yolo_test_args
= {
"model_path"
:
'logs/003/ep077-loss19.318-val_loss19.682.h5',
"anchors_path"
:
'model_data/yolo_anchors.txt',
"classes_path"
:
'model_data/class_file_en.txt',
"score"
:
0.
2,
# 0.2
"iou"
:
0.
1,
# 0.45
"model_image_size"
: (
416,
416),
"gpu_num"
:
1,
}
yolo_test
= YOLO(
**yolo_test_args)
# 輸出內容整理
def _get_class(classes_path)
:
classes_path
=
os.path.expanduser(classes_path)
with
open(classes_path) as f
:
class_names
= f.readlines()
class_names
= [c.strip()
for c
in class_names]
return class_names
def yolov3_output(image,out_boxes,out_scores,out_classes)
:
output
= []
yolo_classes
= _get_class(yolo_test_args[
'classes_path'])
for n,box
in enumerate(out_boxes)
:
y_min, x_min, y_max, x_max
= box
y_min
=
max(
0, np.floor(y_min
+
0.
5).astype(
'int32'))
x_min
=
max(
0, np.floor(x_min
+
0.
5).astype(
'int32'))
y_max
=
min(image.size[
1], np.floor(y_max
+
0.
5).astype(
'int32'))
x_max
=
min(image.size[
0], np.floor(x_max
+
0.
5).astype(
'int32'))
score
= out_scores[n]
yo_class
= yolo_classes[out_classes[n]]
output.append({
'y_min'
:y_min,
'x_min'
:x_min,
'y_max'
:y_max,
'x_max'
:x_max,\
'width'
:image.size[
0],
'height'
:image.size[
1],\
'score'
:score,
'yo_class'
:yo_class})
return output
image
= Image.
open(
'images/images_all/path1.jpg')
r_image,out_boxes, out_scores, out_classes
= yolo_test.detect_image(image)
output
= yolov3_output(r_image,out_boxes,out_scores,out_classes)
輸出結果類似:
{
'path1.jpg'
:
[{
'y_min'
:
416,
'x_min'
:
34,
'y_max'
:
754,
'x_max'
:
367,
'width'
:
440,
'height'
:
783,
'score'
:
0.
9224778,
'yo_class'
:
'class1'},
{
'y_min'
:
428,
'x_min'
:
3,
'y_max'
:
783,
'x_max'
:
352,
'width'
:
440,
'height'
:
783,
'score'
:
0.
2180994,
'yo_class'
:
'class2'}]
}