モデルの頑健性保証

Learning Universal Adversarial Perturbations with Generative Models

Authors: Jamie Hayes, George Danezis | Published: 2017-08-17 | Updated: 2018-01-05
モデルの頑健性保証
攻撃手法
敵対的サンプル

ZOO: Zeroth Order Optimization based Black-box Attacks to Deep Neural Networks without Training Substitute Models

Authors: Pin-Yu Chen, Huan Zhang, Yash Sharma, Jinfeng Yi, Cho-Jui Hsieh | Published: 2017-08-14 | Updated: 2017-11-02
ポイズニング
モデルの頑健性保証
攻撃手法

Generic Black-Box End-to-End Attack Against State of the Art API Call Based Malware Classifiers

Authors: Ishai Rosenberg, Asaf Shabtai, Lior Rokach, Yuval Elovici | Published: 2017-07-19 | Updated: 2018-06-24
バックドア攻撃
マルウェア分類のためのデータセット
モデルの頑健性保証

Houdini: Fooling Deep Structured Prediction Models

Authors: Moustapha Cisse, Yossi Adi, Natalia Neverova, Joseph Keshet | Published: 2017-07-17
モデルの頑健性保証
敵対的攻撃評価
音声認識技術

Foolbox: A Python toolbox to benchmark the robustness of machine learning models

Authors: Jonas Rauber, Wieland Brendel, Matthias Bethge | Published: 2017-07-13 | Updated: 2018-03-20
フレームワークサポート
モデルの頑健性保証
ロバスト性の要件

A Survey on Resilient Machine Learning

Authors: Atul Kumar, Sameep Mehta | Published: 2017-07-11
モデルインバージョン
モデルの頑健性保証
モデル抽出攻撃

Towards Deep Learning Models Resistant to Adversarial Attacks

Authors: Aleksander Madry, Aleksandar Makelov, Ludwig Schmidt, Dimitris Tsipras, Adrian Vladu | Published: 2017-06-19 | Updated: 2019-09-04
モデルの頑健性保証
ロバスト性に関する評価
敵対的サンプル

Adversarial-Playground: A Visualization Suite for Adversarial Sample Generation

Authors: Andrew Norton, Yanjun Qi | Published: 2017-06-06 | Updated: 2017-06-16
モデルの頑健性保証
攻撃タイプ
敵対的学習

Formal Guarantees on the Robustness of a Classifier against Adversarial Manipulation

Authors: Matthias Hein, Maksym Andriushchenko | Published: 2017-05-23 | Updated: 2017-11-05
モデルの頑健性保証
ロバスト性とプライバシーの関係
敵対的学習

Black-Box Attacks against RNN based Malware Detection Algorithms

Authors: Weiwei Hu, Ying Tan | Published: 2017-05-23
モデルの頑健性保証
攻撃タイプ
敵対的学習