On the Suitability of $L_p$-norms for Creating and Preventing Adversarial Examples Authors: Mahmood Sharif, Lujo Bauer, Michael K. Reiter | Published: 2018-02-27 | Updated: 2018-07-27 敵対的サンプルの検知敵対的攻撃分析機械学習技術 2018.02.27 2025.04.03 文献データベース
Enhanced Attacks on Defensively Distilled Deep Neural Networks Authors: Yujia Liu, Weiming Zhang, Shaohua Li, Nenghai Yu | Published: 2017-11-16 ロバスト性向上敵対的サンプル敵対的攻撃分析 2017.11.16 2025.04.03 文献データベース
Machine vs Machine: Minimax-Optimal Defense Against Adversarial Examples Authors: Jihun Hamm, Akshay Mehra | Published: 2017-11-12 | Updated: 2018-06-27 ロバスト性向上敵対的学習敵対的攻撃分析 2017.11.12 2025.04.03 文献データベース
Interpretation of Neural Networks is Fragile Authors: Amirata Ghorbani, Abubakar Abid, James Zou | Published: 2017-10-29 | Updated: 2018-11-06 ロバスト性とプライバシーの関係敵対的攻撃分析説明可能性に対する攻撃 2017.10.29 2025.04.03 文献データベース