原文:Adversarial Camouflage: Hiding Physical-World Attacks with Natural Styles論文報告

Adversarial Camou age: Hiding Physical World Attacks with Natural Styles 組員:張榮華 黎君玉 楊根 問題描述 神經網絡 DNNS 是一類功能強大的模型,在各種人工智能系統中得到了廣泛的應用,但其易受到對抗例子的攻擊。 未來我們的社會必定是一個自動化的環境,比如智能家居,智能安防,自動駕駛等,很多的崗位通過一個傳感器,攝像頭 ...

2020-04-05 00:52 4 463 推薦指數:

查看詳情

ODI for Adversarial Attacks_閱讀報告

Output Diversified Initialization for Adversarial Attacks 學習報告 小組成員:裴建新、賴妍菱、周子玉 1 引言 深度神經網絡在圖像分類方面取得了很大的成功。然而,它們很容易受到 ...

Wed Apr 01 23:34:00 CST 2020 4 592
論文閱讀 | Generating Fluent Adversarial Examples for Natural Languages

Generating Fluent Adversarial Examples for Natural Languages ACL 2019 為自然語言生成流暢的對抗樣本 摘要 有效地構建自然語言處理(NLP)任務的對抗性攻擊者是一個真正的挑戰。首先,由於句子空間是離散的。沿梯度方向 ...

Thu Aug 15 03:56:00 CST 2019 2 408
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM