Convergence of Adversarial Training in Overparametrized Neural Networks Authors: Ruiqi Gao, Tianle Cai, Haochuan Li, Liwei Wang, Cho-Jui Hsieh, Jason D. Lee | Published: 2019-06-19 | Updated: 2019-11-09 ロバスト性の要件敵対的サンプル深層学習手法 2019.06.19 2025.04.03 文献データベース
Logit Pairing Methods Can Fool Gradient-Based Attacks Authors: Marius Mosbach, Maksym Andriushchenko, Thomas Trost, Matthias Hein, Dietrich Klakow | Published: 2018-10-29 | Updated: 2019-03-12 ロバスト性の要件敵対的学習敵対的訓練 2018.10.29 2025.04.03 文献データベース
Rademacher Complexity for Adversarially Robust Generalization Authors: Dong Yin, Kannan Ramchandran, Peter Bartlett | Published: 2018-10-29 | Updated: 2020-07-29 モデルの頑健性保証ロバスト性の要件敵対的訓練 2018.10.29 2025.04.03 文献データベース
Foolbox: A Python toolbox to benchmark the robustness of machine learning models Authors: Jonas Rauber, Wieland Brendel, Matthias Bethge | Published: 2017-07-13 | Updated: 2018-03-20 フレームワークサポートモデルの頑健性保証ロバスト性の要件 2017.07.13 2025.04.03 文献データベース