AIセキュリティポータル
  • Articles
  • Literature Database
  • AIセキュリティマップ
  • 関連リソース
    • 関連ニュース
    • リンク集
  • About Us

説明手法

XBreaking: Explainable Artificial Intelligence for Jailbreaking LLMs

Authors: Marco Arazzi, Vignesh Kumar Kembu, Antonino Nocera, Vinod P | Published: 2025-04-30
LLMの安全機構の解除
プロンプトインジェクション
説明手法
2025.04.30 2025.05.12
Literature Database

On the Privacy Risks of Model Explanations

Authors: Reza Shokri, Martin Strobel, Yair Zick | Published: 2019-06-29 | Updated: 2021-02-05
メンバーシップ推論
敵対的攻撃
説明手法
2019.06.29 2025.05.13
Literature Database
AIセキュリティポータル
  • Terms of Use
  • Privacy Policy
  • Follow us
Copyright© KDDI Research, Inc. All Rights Reserved.
    • Articles
    • Literature Database
    • AIセキュリティマップ
    • 関連リソース
      • 関連ニュース
      • リンク集
    • About Us
  • AIセキュリティポータル