AIセキュリティマップにマッピングされた情報システム的側面における負の影響「学習データの復元」をもたらす攻撃・要因、それに対する防御手法・対策、および対象のAI技術・タスク・データを示しています。また、関連する外部作用的側面の要素も示しています。
攻撃・要因
防御手法・対策
開発・活用における適用フェーズ
1. データ収集・前処理
- 差分プライバシー
- 暗号化技術
2. モデルの選定・学習・検証
- 差分プライバシー
- 暗号化技術
3. システムの実装
4. システムの提供・運用・保守
- AIへのアクセス制御
5. システムの利用
対象のAI技術
- DNN
- CNN
- 対照学習
- FSL
- GNN
- 連合学習
- LSTM
- RNN
- Diffusion model
タスク
- 分類
- 生成
対象のデータ
- 画像
- グラフ
- 音声
関連する外部作用的側面
参考文献
モデルインバージョン
- The Secret Revealer: Generative Model-Inversion Attacks Against Deep Neural Networks, 2019
- Information leakage in embedding models, 2020
- Exploiting Explanations for Model Inversion Attacks, 2021
- Stealing Links from Graph Neural Networks, 2021
- Inference Attacks Against Graph Neural Networks, 2022
- Text Embeddings Reveal (Almost) As Much As Text, 2023
- Language Model Inversion, 2024
差分プライバシー
- Deep Learning with Differential Privacy, 2016.0
- Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data, 2017.0
- Learning Differentially Private Recurrent Language Models, 2018.0
- Efficient Deep Learning on Multi-Source Private Data, 2018.0
- Evaluating Differentially Private Machine Learning in Practice, 2019.0
- Tempered Sigmoid Activations for Deep Learning with Differential Privacy, 2020.0
暗号化技術
- Gazelle: A Low Latency Framework for Secure Neural Network Inference, 2018.0
- Faster CryptoNets: Leveraging Sparsity for Real-World Encrypted Inference, 2018.0
- nGraph-HE2: A High-Throughput Framework for Neural Network Inference on Encrypted Data, 2019.0
- Privacy-Preserving Machine Learning with Fully Homomorphic Encryption for Deep Neural Network, 2021.0
