原文:ICLR2015_Explaining and Harnessing Adversarial Examples

Author 一作: Ian Goodfellow 三作:Christian Szegedy Abstract 之前認為對抗樣本對模型的欺騙性是因為模型的高度非線性和過擬合,本文證明了模型的易損性主要是因為模型的線性本質。而且本文提供了一個簡單且快速的方法產生對抗樣本,將產生的樣本用於對抗訓練可以提升模型的測試性能。 Introduction 在高維空間的線性行為已經足夠產生對抗樣本,這種觀點可以 ...

2018-03-14 16:51 0 940 推薦指數:

查看詳情

【論文理解】Explaining and Harnessing Adversarial Examples

Explaining and Harnessing Adversarial Examples 注:研究不深,純個人理解,可能有誤 1論文簡介: Szegedy提出有幾種機器學習的模型容易受到對抗樣本的攻擊。在訓練數據的不同子集上訓練的具有不同體系結構的模型會誤分類同一對抗樣本。這表明對抗樣本 ...

Sun Jan 19 00:27:00 CST 2020 0 882
Adversarial Examples Improve Image Recognition

Xie C, Tan M, Gong B, et al. Adversarial Examples Improve Image Recognition.[J]. arXiv: Computer Vision and Pattern Recognition, 2019. @article ...

Thu Mar 12 22:59:00 CST 2020 0 1086
論文閱讀 | Generating Fluent Adversarial Examples for Natural Languages

Generating Fluent Adversarial Examples for Natural Languages ACL 2019 為自然語言生成流暢的對抗樣本 摘要 有效地構建自然語言處理(NLP)任務的對抗性攻擊者是一個真正的挑戰。首先,由於句子空間是離散的。沿梯度方向 ...

Thu Aug 15 03:56:00 CST 2019 2 408
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM