Generalized Byzantine-tolerant SGD Authors: Cong Xie, Oluwasanmi Koyejo, Indranil Gupta | Published: 2018-02-27 | Updated: 2018-03-23 ロバスト推定敵対的攻撃分析機械学習技術 2018.02.27 2025.04.03 文献データベース
Understanding and Enhancing the Transferability of Adversarial Examples Authors: Lei Wu, Zhanxing Zhu, Cheng Tai, Weinan E | Published: 2018-02-27 モデル評価手法敵対的学習敵対的攻撃分析 2018.02.27 2025.04.03 文献データベース
Robust GANs against Dishonest Adversaries Authors: Zhi Xu, Chengtao Li, Stefanie Jegelka | Published: 2018-02-27 | Updated: 2019-10-10 ロバスト推定敵対的攻撃分析敵対的訓練 2018.02.27 2025.04.03 文献データベース
On the Suitability of $L_p$-norms for Creating and Preventing Adversarial Examples Authors: Mahmood Sharif, Lujo Bauer, Michael K. Reiter | Published: 2018-02-27 | Updated: 2018-07-27 敵対的サンプルの検知敵対的攻撃分析機械学習技術 2018.02.27 2025.04.03 文献データベース
Enhanced Attacks on Defensively Distilled Deep Neural Networks Authors: Yujia Liu, Weiming Zhang, Shaohua Li, Nenghai Yu | Published: 2017-11-16 ロバスト性向上敵対的サンプル敵対的攻撃分析 2017.11.16 2025.04.03 文献データベース
Machine vs Machine: Minimax-Optimal Defense Against Adversarial Examples Authors: Jihun Hamm, Akshay Mehra | Published: 2017-11-12 | Updated: 2018-06-27 ロバスト性向上敵対的学習敵対的攻撃分析 2017.11.12 2025.04.03 文献データベース
Interpretation of Neural Networks is Fragile Authors: Amirata Ghorbani, Abubakar Abid, James Zou | Published: 2017-10-29 | Updated: 2018-11-06 ロバスト性とプライバシーの関係敵対的攻撃分析説明可能性に対する攻撃 2017.10.29 2025.04.03 文献データベース