Cautious Deep Learning Authors: Yotam Hechtlinger, Barnabás Póczos, Larry Wasserman | Published: 2018-05-24 | Updated: 2019-02-27 モデルの堅牢性ラベル確率分布 2018.05.24 2025.04.03 文献データベース
Towards Robust Training of Neural Networks by Regularizing Adversarial Gradients Authors: Fuxun Yu, Zirui Xu, Yanzhi Wang, Chenchen Liu, Xiang Chen | Published: 2018-05-23 | Updated: 2018-06-07 モデルの堅牢性敵対的学習敵対的攻撃検出 2018.05.23 2025.04.03 文献データベース
Adversarially Robust Training through Structured Gradient Regularization Authors: Kevin Roth, Aurelien Lucchi, Sebastian Nowozin, Thomas Hofmann | Published: 2018-05-22 モデルの堅牢性損失関数敵対的攻撃検出 2018.05.22 2025.04.03 文献データベース
Towards Understanding Limitations of Pixel Discretization Against Adversarial Attacks Authors: Jiefeng Chen, Xi Wu, Vaibhav Rastogi, Yingyu Liang, Somesh Jha | Published: 2018-05-20 | Updated: 2019-10-03 データ前処理モデルの堅牢性モデル抽出攻撃 2018.05.20 2025.04.03 文献データベース
Curriculum Adversarial Training Authors: Qi-Zhi Cai, Min Du, Chang Liu, Dawn Song | Published: 2018-05-13 データキュレーションモデルの堅牢性敵対的学習 2018.05.13 2025.04.03 文献データベース
Keeping the Bad Guys Out: Protecting and Vaccinating Deep Learning with JPEG Compression Authors: Nilaksh Das, Madhuri Shanbhogue, Shang-Tse Chen, Fred Hohman, Li Chen, Michael E. Kounavis, Duen Horng Chau | Published: 2017-05-08 モデルの堅牢性モデルの頑健性保証防御メカニズム 2017.05.08 2025.04.03 文献データベース
The Space of Transferable Adversarial Examples Authors: Florian Tramèr, Nicolas Papernot, Ian Goodfellow, Dan Boneh, Patrick McDaniel | Published: 2017-04-11 | Updated: 2017-05-23 モデルの堅牢性攻撃検出敵対的サンプルの検知 2017.04.11 2025.04.03 文献データベース