畢設的第二階段,就是對融合后的圖像進行目標檢測,這里首先使用KITTI數據集的原始圖像進行目標檢測,代碼使用的是u版pytorch-yolo : https://github.com/ultralytics/yolov3
一、環境配置
我使用的環境是 win10 + cuda 11.1 + python 3.8 + pytorch1.6.0
二、數據准備
將數據集Annotations、JPEGImages復制到yolov3-master工程目錄下的data文件夾下;同時新建兩個文件夾,分別命名為ImageSets和labels,最后我們將JPEGImages文件夾復制粘貼一下,並將文件夾重命名為images

注意,JPEGImages中的文件格式為png,images中的文件格式為jpg,只需在CMD中使用 ren *.png *.jpg 即可完成批量轉換
在工程的根目錄下新建一個文件makeTxt.py
import osimport random trainval_percent = 0.1train_percent = 0.9xmlfilepath = 'data/Annotations'txtsavepath = 'data/ImageSets'total_xml = os.listdir(xmlfilepath) num = len(total_xml)list = range(num)tv = int(num * trainval_percent)tr = int(tv * train_percent)trainval = random.sample(list, tv)train = random.sample(trainval, tr) ftrainval = open('data/ImageSets/trainval.txt', 'w')ftest = open('data/ImageSets/test.txt', 'w')ftrain = open('data/ImageSets/train.txt', 'w')fval = open('data/ImageSets/val.txt', 'w') for i in list: name = total_xml[i][:-4] + '\n' if i in trainval: ftrainval.write(name) if i in train: ftest.write(name) else: fval.write(name) else: ftrain.write(name) ftrainval.close()ftrain.close()fval.close()ftest.close()
運行makeTxt.py后, 在ImageSets得到四個文件,主要存儲圖片名稱。

運行根目錄下voc_label.py,得到labels的具體內容以及data目錄下的train.txt,test.txt,val.txt,這里的train.txt得到文件名,還有文件的具體路徑。train.txt和val.txt合並得到train.txt,test.txt作為驗證集


voc_label.py的代碼如下
import xml.etree.ElementTree as ETimport pickleimport osfrom os import listdir, getcwdfrom os.path import join sets = ['train', 'test', 'val'] classes = ["Car","Pedestrian","Cyclist"] # 現在只有3類物體:車,行人,騎自行車的人 def convert(size, box): dw = 1. / size[0] dh = 1. / size[1] x = (box[0] + box[1]) / 2.0 y = (box[2] + box[3]) / 2.0 w = box[1] - box[0] h = box[3] - box[2] x = x * dw w = w * dw y = y * dh h = h * dh return (x, y, w, h) def convert_annotation(image_id): in_file = open('data/Annotations/%s.xml' % (image_id)) out_file = open('data/labels/%s.txt' % (image_id), 'w') tree = ET.parse(in_file) root = tree.getroot() size = root.find('size') w = int(size.find('width').text) h = int(size.find('height').text) for obj in root.iter('object'): #difficult = obj.find('difficult').text cls = obj.find('name').text # if cls not in classes or int(difficult) == 1: # continue cls_id = classes.index(cls) xmlbox = obj.find('bndbox') b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text)) bb = convert((w, h), b) out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n') wd = getcwd()print(wd)for image_set in sets: if not os.path.exists('data/labels/'): os.makedirs('data/labels/') image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split() list_file = open('data/%s.txt' % (image_set), 'w') for image_id in image_ids: list_file.write('data/images/%s.jpg\n' % (image_id)) convert_annotation(image_id) list_file.close()
三、修改配置文件
在data文件下新建kitti.data,配置內容如下:
classes=3train=data/train.txtvalid=data/test.txtnames=data/kitti.namesbackup=backup/eval=coco
再在data文件下新建kitti.names,配置內容如下:
CarPedestrianCyclist

修改cfg
在原工程下cfg目錄下有很多的yolov3網絡結構,我們本次采用的是yolov3-tiny.cfg。
我們需要將cfg下的yolov3-tiny.cfg文件進行修改,修改內容如下:
首先找到yolo的那一欄,將其中的 classes改為你數據集的分類數(我這里是3),然后將每一個yolo上面的convolutional中的
改為 filters = 24 (3 * (5 + 分類數))

四、獲取權重
獲取網絡參數yolov3-tiny.weights,下載鏈接https://pjreddie.com/media/files/yolov3-tiny.weights,下載后導入weights文件夾下;同樣還需要下載yolov3-tiny.conv.15,下載導入weights文件夾下,下載鏈接如下:https://pan.baidu.com/s/1nv1cErZeb6s0A5UOhOmZcA
提取碼:t7vp
五、訓練
訓練后會得到兩個模型

此文轉載文,著作權歸作者所有,如有侵權聯系小編刪除!
原文地址:https://blog.csdn.net/qq_34201858/article/details/108928793