ZOO: Zeroth Order Optimization based Black-box Attacks to Deep Neural Networks without Training Substitute Models Authors: Pin-Yu Chen, Huan Zhang, Yash Sharma, Jinfeng Yi, Cho-Jui Hsieh | Published: 2017-08-14 | Updated: 2017-11-02 ポイズニングモデルの頑健性保証攻撃手法 2017.08.14 2025.04.03 文献データベース
Certified Defenses for Data Poisoning Attacks Authors: Jacob Steinhardt, Pang Wei Koh, Percy Liang | Published: 2017-06-09 | Updated: 2017-11-24 ポイズニング最適化問題毒データの検知 2017.06.09 2025.04.03 文献データベース
Yes, Machine Learning Can Be More Secure! A Case Study on Android Malware Detection Authors: Ambra Demontis, Marco Melis, Battista Biggio, Davide Maiorca, Daniel Arp, Konrad Rieck, Igino Corona, Giorgio Giacinto, Fabio Roli | Published: 2017-04-28 ポイズニングマルウェア検出シナリオモデル抽出攻撃 2017.04.28 2025.04.03 文献データベース
Adequacy of the Gradient-Descent Method for Classifier Evasion Attacks Authors: Yi Han, Benjamin I. P. Rubinstein | Published: 2017-04-06 | Updated: 2017-05-25 ポイズニングモデルの頑健性保証対抗的学習 2017.04.06 2025.04.03 文献データベース
Understanding Black-box Predictions via Influence Functions Authors: Pang Wei Koh, Percy Liang | Published: 2017-03-14 | Updated: 2020-12-29 ポイズニング学習の改善説明可能性評価 2017.03.14 2025.04.03 文献データベース
Generative Poisoning Attack Method Against Neural Networks Authors: Chaofei Yang, Qing Wu, Hai Li, Yiran Chen | Published: 2017-03-03 トリガーの検知ポイズニング生成モデル 2017.03.03 2025.04.03 文献データベース