Does Low Rank Adaptation Lead to Lower Robustness against Training-Time Attacks? Authors: Zi Liang, Haibo Hu, Qingqing Ye, Yaxin Xiao, Ronghua Li | Published: 2025-05-19 LLMセキュリティポイズニング攻撃ロバスト性の要件 2025.05.19 文献データベース
Convergence of Adversarial Training in Overparametrized Neural Networks Authors: Ruiqi Gao, Tianle Cai, Haochuan Li, Liwei Wang, Cho-Jui Hsieh, Jason D. Lee | Published: 2019-06-19 | Updated: 2019-11-09 ロバスト性の要件敵対的サンプル深層学習手法 2019.06.19 2025.04.03 文献データベース
Logit Pairing Methods Can Fool Gradient-Based Attacks Authors: Marius Mosbach, Maksym Andriushchenko, Thomas Trost, Matthias Hein, Dietrich Klakow | Published: 2018-10-29 | Updated: 2019-03-12 ロバスト性の要件敵対的学習敵対的訓練 2018.10.29 2025.04.03 文献データベース
Rademacher Complexity for Adversarially Robust Generalization Authors: Dong Yin, Kannan Ramchandran, Peter Bartlett | Published: 2018-10-29 | Updated: 2020-07-29 モデルの頑健性保証ロバスト性の要件敵対的訓練 2018.10.29 2025.04.03 文献データベース
Foolbox: A Python toolbox to benchmark the robustness of machine learning models Authors: Jonas Rauber, Wieland Brendel, Matthias Bethge | Published: 2017-07-13 | Updated: 2018-03-20 フレームワークサポートモデルの頑健性保証ロバスト性の要件 2017.07.13 2025.04.03 文献データベース