モデルの頑健性保証

Generative Adversarial Perturbations

Authors: Omid Poursaeed, Isay Katsman, Bicheng Gao, Serge Belongie | Published: 2017-12-06 | Updated: 2018-07-06
モデルの頑健性保証
敵対的攻撃手法
生成的敵対ネットワーク

Where Classification Fails, Interpretation Rises

Authors: Chanh Nguyen, Georgi Georgiev, Yujie Ji, Ting Wang | Published: 2017-12-02
FDI攻撃検出手法
モデルの頑健性保証
敵対的学習

Evaluating Robustness of Neural Networks with Mixed Integer Programming

Authors: Vincent Tjeng, Kai Xiao, Russ Tedrake | Published: 2017-11-20 | Updated: 2019-02-18
モデルの頑健性保証
ロバスト性
深層学習技術

The best defense is a good offense: Countering black box attacks by predicting slightly wrong labels

Authors: Yannic Kilcher, Thomas Hofmann | Published: 2017-11-15
バックドアモデルの検知
プロアクティブ防御
モデルの頑健性保証

LatentPoison – Adversarial Attacks On The Latent Space

Authors: Antonia Creswell, Anil A. Bharath, Biswa Sengupta | Published: 2017-11-08
ポイズニング
モデルの頑健性保証
敵対的攻撃

Provable defenses against adversarial examples via the convex outer adversarial polytope

Authors: Eric Wong, J. Zico Kolter | Published: 2017-11-02 | Updated: 2018-06-08
モデルの頑健性保証
ロバスト性
深層学習技術

Attacking Binarized Neural Networks

Authors: Angus Galloway, Graham W. Taylor, Medhat Moussa | Published: 2017-11-01 | Updated: 2018-01-31
モデルの頑健性保証
ロバスト性向上手法
敵対的サンプル

Attacking the Madry Defense Model with $L_1$-based Adversarial Examples

Authors: Yash Sharma, Pin-Yu Chen | Published: 2017-10-30 | Updated: 2018-07-27
モデルの頑健性保証
ロバスト性向上手法
敵対的サンプルの検知

Boosting Adversarial Attacks with Momentum

Authors: Yinpeng Dong, Fangzhou Liao, Tianyu Pang, Hang Su, Jun Zhu, Xiaolin Hu, Jianguo Li | Published: 2017-10-17 | Updated: 2018-03-22
モデルの頑健性保証
ロバスト性向上手法
敵対的サンプルの検知

Bayesian Hypernetworks

Authors: David Krueger, Chin-Wei Huang, Riashat Islam, Ryan Turner, Alexandre Lacoste, Aaron Courville | Published: 2017-10-13 | Updated: 2018-04-24
モデルの頑健性保証
モデル設計
ラベル