Note-Adversarial Examples Are a Natural Consequence of Test Error in Noise
Content
这篇论文主要是来探究adversarial robustness和corruption robustness的关系。
主旨句:Improving adversarial robustness should go hand in hand with improving performance in the presence of more general and realistic image corruptions.
三种训练方式:
- naturally trained
- adversarially trained
- with Gaussian data augmentation
第三部分:
- 交代了一下如何表示corruption robustness和adversarial robustness。
- 交代了论文中的模型是如何训练得到的。
第四部分:
- 从线性模型开始谈起,探索两类鲁棒性之间的关系
- 从线性模型扩展到神经网络,探究 σ \sigma σ和d的关系。( σ \sigma σ代表corruption robustness, σ \sigma σ越大表示模型的corruption robustness越强;d代表adversarial robustness)
第五部分:
- 寻找对抗鲁棒性的上界
Reference
- 综述论文:对抗攻击的12种攻击方法和15种防御方法
- 模拟图像与数字图像
- 如何正确地给图像添加高斯噪声
- Decision boundary
- L1距离和L2距离图像解释
Note-Adversarial Examples Are a Natural Consequence of Test Error in Noise
Content
这篇论文主要是来探究adversarial robustness和corruption robustness的关系。
主旨句:Improving adversarial robustness should go hand in hand with improving performance in the presence of more general and realistic image corruptions.
三种训练方式:
- naturally trained
- adversarially trained
- with Gaussian data augmentation
第三部分:
- 交代了一下如何表示corruption robustness和adversarial robustness。
- 交代了论文中的模型是如何训练得到的。
第四部分:
- 从线性模型开始谈起,探索两类鲁棒性之间的关系
- 从线性模型扩展到神经网络,探究 σ \sigma σ和d的关系。( σ \sigma σ代表corruption robustness, σ \sigma σ越大表示模型的corruption robustness越强;d代表adversarial robustness)
第五部分:
- 寻找对抗鲁棒性的上界
Reference
- 综述论文:对抗攻击的12种攻击方法和15种防御方法
- 模拟图像与数字图像
- 如何正确地给图像添加高斯噪声
- Decision boundary
- L1距离和L2距离图像解释