AIセキュリティマップにマッピングされた情報システム的側面における負の影響「AIの推論結果の理解が困難」をもたらす攻撃・要因、それに対する防御手法・対策、および対象のAI技術・タスク・データを示しています。また、関連する外部作用的側面の要素も示しています。
攻撃・要因
- 完全性の毀損
- 説明可能性に対する攻撃
防御手法・対策
開発・活用における適用フェーズ
1. データ収集・前処理
2. モデルの選定・学習・検証
3. システムの実装
4. システムの提供・運用・保守
- XAI(説明可能なAI)
- ロバストな説明可能性
5. システムの利用
対象のAI技術
- DNN
- CNN
- 対照学習
- FSL
- GNN
- 連合学習
- LSTM
- RNN
タスク
- 分類
対象のデータ
- 画像
- グラフ
- テキスト
- 音声
関連する外部作用的側面
参考文献
説明可能性に対する攻撃
XAI(説明可能なAI)
- Visualizing and Understanding Convolutional Networks, 2014.0
- Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps, 2014.0
- Understanding Deep Image Representations by Inverting Them, 2014.0
- “Why Should I Trust You?”: Explaining the Predictions of Any Classifier, 2016.0
- A Unified Approach to Interpreting Model Predictions, 2017.0
- Learning Important Features Through Propagating Activation Differences, 2017.0
- Understanding Black-box Predictions via Influence Functions, 2017.0
- Interpretable Explanations of Black Boxes by Meaningful Perturbation, 2017.0
- Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV), 2018.0
- Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, 2019.0
