目錄
在自己電腦實現Deeplabv3+
首先要清楚圖像分割和語義分割的不同
圖像分割只需要根據某些規則分成若干個特定的區域,畫出那個框來就OK了
但是語義分割的話,則還需要把實例(即人的輪廓)都分割出來,而且還要標識這些是不同的人
現在語義分割可以做到實例分割和全景分割
完成deeplabv3+的訓練
- https://blog.csdn.net/malvas/article/details/90776327
- https://blog.csdn.net/malvas/article/details/88896283
如果要做一個自己的VOC數據集
問題
TensorFlow Allocation of 1511424000 exceeds 10% of system memory
https://blog.csdn.net/fuzzy__H/article/details/83757143
https://blog.csdn.net/qq_29015763/article/details/88783366
tf:failed to alloc 268435456 bytes on host: CUDA_ERROR_OUT_OF_MEMORY
https://blog.csdn.net/qq_26669719/article/details/88597682
## 忽略這些我做的筆記
添加池化層,會減少特征圖像尺寸的損失
output_stride = 256/16
rate補0的個數不一樣,空洞也不一樣
拼接就是1*1的卷積
兩步結合了
Xception-JFT
自己出問題就看看別人標注的文件
validation驗證集
367,233,101
灰度圖,不同的灰度對應不同的物體
標簽就是ground——trouth掩模
預訓練模型是什么???為什么要借助別人的
平衡問題,出現的多,出現的少
可以一定的修正,沒有考慮這個問題
train_step = 1000幾百先隨便減少一下
crop_size = 部分的裁剪
480*360 --- 裁剪成很多321.321
batch_size = 4 降下來gpu降下來
480*360的話513\*513是不太行的
寬是480,360,要反過來
訓練次數加大,更精細
數據集比較少,圖片比較少
幾百次是全黑的
用smooth的區別