(一)、什么是數據增強?
(1). 數據增強主要指在計算機視覺領域中對圖像進行數據增強,從而彌補訓練圖像數據集不足,達到對訓練數據擴充的目的。
(2). 數據增強是一種數據擴充方法,可分為同類增強(如:翻轉、旋轉、縮放、移位、模糊等)和混類增強(如mixup)兩種方式。
(二)、同類數據增強方式主要有哪些?
(1). 翻轉Flip
可分為水平翻轉,垂直翻轉
(2). 旋轉Rotation
(3). 縮放Scale(向外縮放,向內縮放)
向外縮放時,最終圖像尺寸將大於原始圖像尺寸,大多數圖像框架從新圖像中剪切出一個部分,其大小等於原始圖像。而向內縮放,因為它會縮小圖像大小,迫使我們對超出邊界的內容做出假設。
(4). 隨機裁剪(Random Crop)
與縮放不同,隨機裁剪只是從原始圖像中隨機抽樣一個部分,然后我們將此部分的大小調整為原始圖像大小。
(5). 移位(Translation)
移位只涉及沿X或Y方向(或兩者)移動圖像。這種增強方法非常有用,因為大多數對象幾乎可以位於圖像的任何位置,移位時我們需要對邊界作出假設。
(6). 模糊(Gaussian Noise)
當您的神經網絡試圖學習可能無用的高頻特征(大量出現的特征)時,通常會發生過擬合。具有零均值的高斯噪聲基本上在所有頻率中具有數據點,從而有效地扭曲高頻特征。但是這也意味着較低頻率的數據(通常是您的預期數據)也會失真,但您的神經網絡可以學會超越它。添加適量的噪聲可以增強網絡學習能力。
(三)、mixup混類數據增強方式
(1). mixup介紹
mixup是一種運用在計算機視覺中的對圖像進行混類增強的算法,它可以將不同類之間的圖像進行混合,從而擴充訓練數據集。
(2). mixup原理
假設b a t c h x 1 batch_{x1}batchx1是一個b a t c h batchbatch樣本,b a t c h y 1 batch_{y1}batchy1是該b a t c h batchbatch樣本對應的標簽;b a t c h x 2 batch_{x2}batchx2是另一個b a t c h batchbatch樣本,b a t c h y 2 batch_{y2}batchy2是該b a t c h batchbatch樣本對應的標簽,λ \lambdaλ是由參數為α \alphaα,β \betaβ的貝塔分布計算出來的混合系數,由此我們可以得到mixup原理公式為:λ = B e t a ( α , β ) (3.1) {\lambda=Beta(\alpha,\beta)\tag{3.1}}λ=Beta(α,β)(3.1)m i x e d _ b a t c h x = λ ∗ b a t c h x 1 + ( 1 − λ ) ∗ b a t c h x 2 (3.2) mixed\_ batch_x=\lambda*batch_{x1}+(1-\lambda)*batch_{x2}\tag{3.2}mixed_batchx=λ∗batchx