AIセキュリティマップにマッピングされた情報システム的側面における負の影響「学習データ汚染によるAIの性能の低下」をもたらす攻撃・要因、それに対する防御手法・対策、および対象のAI技術・タスク・データを示しています。また、関連する外部作用的側面の要素も示しています。
攻撃・要因
防御手法・対策
開発・活用における適用フェーズ
1. データ収集・前処理
- 毒データの検知
2. モデルの選定・学習・検証
- モデルの頑健性保証
3. システムの実装
4. システムの提供・運用・保守
5. システムの利用
対象のAI技術
- DNN
- CNN
- LLM
- 対照学習
- FSL
- GNN
- 連合学習
- LSTM
- RNN
タスク
- 分類
- 生成
対象のデータ
- 画像
- グラフ
- テキスト
- 音声
関連する外部作用的側面
参考文献
ポイズニング
- Poisoning Attacks against Support Vector Machines, 2012
- Understanding Black-box Predictions via Influence Functions, 2017
- Towards poisoning of deep learning algorithms with back-gradient optimization, 2017
- Stronger Data Poisoning Attacks Break Data Sanitization Defenses, 2018
- Online data poisoning attack, 2019
- Data Poisoning Attacks Against Federated Learning Systems, 2020
- PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in Contrastive Learning, 2022
- Unsupervised Graph Poisoning Attack via Contrastive Loss Back-propagation, 2022
- Poisoning Web-Scale Training Datasets is Practical, 2023
毒データの検知
モデルの頑健性保証
- Certified Defenses for Data Poisoning Attacks, 2017.0
- Certified Robustness to Adversarial Examples with Differential Privacy, 2019.0
- On Evaluating Adversarial Robustness, 2019.0
- Certified Adversarial Robustness via Randomized Smoothing, 2019.0
- Certified Robustness of Graph Neural Networks against Adversarial Structural Perturbation, 2021.0
- Certified Robustness for Large Language Models with Self-Denoising, 2023.0
- RAB: Provable Robustness Against Backdoor Attacks, 2023.0
- (Certified!!) Adversarial Robustness for Free!, 2023.0
- Certifying LLM Safety against Adversarial Prompting, 2024.0
