AIセキュリティマップにマッピングされた情報システム的側面における負の影響「モデル情報の漏洩」をもたらす攻撃・要因、それに対する防御手法・対策、および対象のAI技術・タスク・データを示しています。また、関連する外部作用的側面の要素も示しています。
攻撃・要因
防御手法・対策
- 差分プライバシー
- モデル抽出攻撃の検知
- AIへのアクセス制御
対象のAI技術
- DNN
- CNN
- 対照学習
- FSL
- GNN
- 連合学習
- LSTM
- RNN
タスク
- 分類
対象のデータ
- 画像
- グラフ
- テキスト
- 音声
関連する外部作用的側面
参考文献
モデル抽出攻撃
- Stealing Machine Learning Models via Prediction APIs, 2016
- Stealing Hyperparameters in Machine Learning, 2018
- Towards Reverse-Engineering Black-Box Neural Networks, 2018
- Knockoff Nets: Stealing Functionality of Black-Box Models, 2019
- PRADA: Protecting against DNN Model Stealing Attacks, 2019
- Model Reconstruction from Model Explanations, 2019
- High Accuracy and High Fidelity Extraction of Neural Networks, 2020
- Watermark Stealing in Large Language Models, 2024
- Prompt Stealing Attacks Against Large Language Models, 2024
- Stealing Part of a Production Language Model, 2024
差分プライバシー
- Deep Learning with Differential Privacy, 2016
- Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data, 2017
- Learning Differentially Private Recurrent Language Models, 2018
- Efficient Deep Learning on Multi-Source Private Data, 2018
- Evaluating Differentially Private Machine Learning in Practice, 2019
- Tempered Sigmoid Activations for Deep Learning with Differential Privacy, 2020