DeeplabV3+制作自己的VOC數據集使用指南


在自己電腦實現Deeplabv3+

首先要清楚圖像分割和語義分割的不同

圖像分割只需要根據某些規則分成若干個特定的區域,畫出那個框來就OK了

但是語義分割的話,則還需要把實例(即人的輪廓)都分割出來,而且還要標識這些是不同的人

現在語義分割可以做到實例分割和全景分割

完成deeplabv3+的訓練

  1. https://blog.csdn.net/malvas/article/details/90776327
  2. https://blog.csdn.net/malvas/article/details/88896283

如果要做一個自己的VOC數據集

  1. https://blog.csdn.net/zhangjunbob/article/details/52769381

問題

TensorFlow Allocation of 1511424000 exceeds 10% of system memory

https://blog.csdn.net/fuzzy__H/article/details/83757143

https://blog.csdn.net/qq_29015763/article/details/88783366

tf:failed to alloc 268435456 bytes on host: CUDA_ERROR_OUT_OF_MEMORY

https://blog.csdn.net/qq_26669719/article/details/88597682

## 忽略這些我做的筆記
添加池化層,會減少特征圖像尺寸的損失

output_stride = 256/16

rate補0的個數不一樣,空洞也不一樣 

拼接就是1*1的卷積

兩步結合了

Xception-JFT

自己出問題就看看別人標注的文件

validation驗證集

367,233,101

灰度圖,不同的灰度對應不同的物體

標簽就是ground——trouth掩模

預訓練模型是什么???為什么要借助別人的

平衡問題,出現的多,出現的少

可以一定的修正,沒有考慮這個問題

train_step = 1000幾百先隨便減少一下

crop_size =  部分的裁剪

480*360 --- 裁剪成很多321.321

batch_size = 4 降下來gpu降下來

480*360的話513\*513是不太行的

寬是480,360,要反過來

訓練次數加大,更精細

數據集比較少,圖片比較少

幾百次是全黑的

用smooth的區別


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM