AIセキュリティマップにマッピングされた情報システム的側面における負の影響「学習データ汚染によるAIの性能の低下」をもたらす攻撃・要因、それに対する防御手法・対策、および対象のAI技術・タスク・データを示しています。また、関連する外部作用的側面の要素も示しています。
攻撃・要因
防御手法・対策
対象のAI技術
- DNN
- CNN
- LLM
- 対照学習
- FSL
- GNN
- 連合学習
- LSTM
- RNN
タスク
- 分類
- 生成
対象のデータ
- 画像
- グラフ
- テキスト
- 音声
関連する外部作用的側面
参考文献
ポイズニング
- Poisoning Attacks against Support Vector Machines, 2012
- Understanding Black-box Predictions via Influence Functions, 2017
- Towards poisoning of deep learning algorithms with back-gradient optimization, 2017
- Stronger Data Poisoning Attacks Break Data Sanitization Defenses, 2018
- Online data poisoning attack, 2019
- Data Poisoning Attacks Against Federated Learning Systems, 2020
- PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in Contrastive Learning, 2022
- Unsupervised Graph Poisoning Attack via Contrastive Loss Back-propagation, 2022
- Poisoning Web-Scale Training Datasets is Practical, 2023
毒データの検知
モデルの頑健性保証
- Explaining and Harnessing Adversarial Examples, 2015
- Towards Deep Neural Network Architectures Robust to Adversarial Examples, 2015
- Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks, 2016
- Reluplex: An Efficient SMT Solver for Verifying Deep Neural Networks, 2017
- Towards Deep Learning Models Resistant to Adversarial Attacks, 2018
- Ensemble Adversarial Training: Attacks and Defenses, 2018
- Provable defenses against adversarial examples via the convex outer adversarial polytope, 2018
- On Evaluating Adversarial Robustness, 2019
- Evaluating Robustness of Neural Networks with Mixed Integer Programming, 2019