AIセキュリティマップにマッピングされた情報システム的側面における負の影響「モデル情報の漏洩」をもたらす攻撃・要因、それに対する防御手法・対策、および対象のAI技術・タスク・データを示しています。また、関連する外部作用的側面の要素も示しています。
攻撃・要因
防御手法・対策
- モデル抽出攻撃の検知
- AIへのアクセス制御
開発・活用における適用フェーズ
1. データ収集・前処理
2. モデルの選定・学習・検証
3. システムの実装
- モデル抽出攻撃の検知
4. システムの提供・運用・保守
- モデル抽出攻撃の検知
- AIへのアクセス制御
5. システムの利用
対象のAI技術
- DNN
- CNN
- 対照学習
- FSL
- GNN
- 連合学習
- LSTM
- RNN
タスク
- 分類
対象のデータ
- 画像
- グラフ
- テキスト
- 音声
関連する外部作用的側面
参考文献
モデル抽出攻撃
- Stealing Machine Learning Models via Prediction APIs, 2016
- Stealing Hyperparameters in Machine Learning, 2018
- Towards Reverse-Engineering Black-Box Neural Networks, 2018
- Knockoff Nets: Stealing Functionality of Black-Box Models, 2019
- PRADA: Protecting against DNN Model Stealing Attacks, 2019
- Model Reconstruction from Model Explanations, 2019
- High Accuracy and High Fidelity Extraction of Neural Networks, 2020
- Watermark Stealing in Large Language Models, 2024
- Prompt Stealing Attacks Against Large Language Models, 2024
- Stealing Part of a Production Language Model, 2024
