原文:Adversarial Camouflage: Hiding Physical-World Attacks with Natural Styles论文报告

Adversarial Camou age: Hiding Physical World Attacks with Natural Styles 组员:张荣华 黎君玉 杨根 问题描述 神经网络 DNNS 是一类功能强大的模型,在各种人工智能系统中得到了广泛的应用,但其易受到对抗例子的攻击。 未来我们的社会必定是一个自动化的环境,比如智能家居,智能安防,自动驾驶等,很多的岗位通过一个传感器,摄像头 ...

2020-04-05 00:52 4 463 推荐指数:

查看详情

ODI for Adversarial Attacks_阅读报告

Output Diversified Initialization for Adversarial Attacks 学习报告 小组成员:裴建新、赖妍菱、周子玉 1 引言 深度神经网络在图像分类方面取得了很大的成功。然而,它们很容易受到 ...

Wed Apr 01 23:34:00 CST 2020 4 592
论文阅读 | Generating Fluent Adversarial Examples for Natural Languages

Generating Fluent Adversarial Examples for Natural Languages ACL 2019 为自然语言生成流畅的对抗样本 摘要 有效地构建自然语言处理(NLP)任务的对抗性攻击者是一个真正的挑战。首先,由于句子空间是离散的。沿梯度方向 ...

Thu Aug 15 03:56:00 CST 2019 2 408
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM