AIセキュリティマップにマッピングされた情報システム的側面における負の影響「AIのリソースの大量消費によってサービスが停止」をもたらす攻撃・要因、それに対する防御手法・対策、および対象のAI技術・タスク・データを示しています。また、関連する外部作用的側面の要素も示しています。
攻撃・要因
防御手法・対策
- トークン数の制限
- AIへのアクセス制限
対象のAI技術
- LLM
タスク
- 生成
対象のデータ
- テキスト
関連する外部作用的側面
参考文献
モデルDoS
- Sponge Examples: Energy-Latency Attacks on Neural Networks, 2021
- Sponge Examples: Energy-Latency Attacks on Neural Networks, 2021
- NICGSlowDown: Evaluating the Efficiency Robustness of Neural Image Caption Generation Models, 2022
- Safeguard is a Double-edged Sword: Denial-of-service Attack on Large Language Models, 2024
- Denial-of-Service Poisoning Attacks against Large Language Models, 2024
- Inducing High Energy-Latency of Large Vision-Language Models with Verbose Images, 2024