Improving Robustness of ML Classifiers against Realizable Evasion Attacks Using Conserved Features Authors: Liang Tong, Bo Li, Chen Hajaj, Chaowei Xiao, Ning Zhang, Yevgeniy Vorobeychik | Published: 2017-08-28 | Updated: 2019-05-10 モデル抽出攻撃ロバスト性分析敵対的学習 2017.08.28 2025.04.03 文献データベース
Cascade Adversarial Machine Learning Regularized with a Unified Embedding Authors: Taesik Na, Jong Hwan Ko, Saibal Mukhopadhyay | Published: 2017-08-08 | Updated: 2018-03-17 ロバスト性分析攻撃手法敵対的学習 2017.08.08 2025.04.03 文献データベース
Adversarial-Playground: A Visualization Suite for Adversarial Sample Generation Authors: Andrew Norton, Yanjun Qi | Published: 2017-06-06 | Updated: 2017-06-16 モデルの頑健性保証攻撃タイプ敵対的学習 2017.06.06 2025.04.03 文献データベース
Formal Guarantees on the Robustness of a Classifier against Adversarial Manipulation Authors: Matthias Hein, Maksym Andriushchenko | Published: 2017-05-23 | Updated: 2017-11-05 モデルの頑健性保証ロバスト性とプライバシーの関係敵対的学習 2017.05.23 2025.04.03 文献データベース
Black-Box Attacks against RNN based Malware Detection Algorithms Authors: Weiwei Hu, Ying Tan | Published: 2017-05-23 モデルの頑健性保証攻撃タイプ敵対的学習 2017.05.23 2025.04.03 文献データベース