對抗訓練
對抗訓練是防御對抗樣本攻擊的一種方法。將對抗樣本和正常樣本一起訓練是一種有效的正則化,可以提高模型的准確度,同時也能有效降低對抗樣本的攻擊成功率。不過這種防御也只是針對同樣用來產生訓練集中的對抗樣本的方法。
探索網絡對底層任務的理解層次,通過對抗訓練減少原有獨立同分布的測試集的錯誤率——在對抗擾動的訓練集上訓練網絡
對抗樣本的定義和產生
從2013年開始,深度學習模型在多種應用上已經能達到甚至超過人類水平,比如人臉識別,物體識別,手寫文字識別等等。 在之前,機器在這些項目的准確率很低,如果機器識別出錯了,沒人會覺得奇怪。但是現在,深度學習算法的效果好了起來,去研究算法犯的那些不尋常的錯誤變得有價值起來。其中一種錯誤叫對抗樣本(adversarial examples)。
對抗樣本指的是一個經過微小調整就可以讓機器學習算法輸出錯誤結果的輸入樣本。在圖像識別中,可以理解為原來被一個卷積神經網絡(CNN)分類為一個類(比如“熊貓”)的圖片,經過非常細微甚至人眼無法察覺的改動后,突然被誤分成另一個類(比如“長臂猿”)。nemoyy

通過某種算法,針對指定的樣本計算出一個變化量,該樣本經過修改后,從人類的感覺無法辨識,但是卻可以讓該樣本跨越分割平面,導致機器學習模型的判定結果改變。
簡單的理解就是給樣本加一些噪聲擾動讓其分錯
對於圖像方面比如更改圖像的像素值讓他分錯~
高效的生成對抗樣本
見http://www.360doc.com/content/18/0315/19/99071_737305291.shtml
