HarmNet: A Framework for Adaptive Multi-Turn Jailbreak Attacks on Large Language Models Authors: Sidhant Narula, Javad Rafiei Asl, Mohammad Ghasemigol, Eduardo Blanco, Daniel Takabi | Published: 2025-10-21 クエリ生成手法大規模言語モデル脱獄手法 2025.10.21 文献データベース
PLAGUE: Plug-and-play framework for Lifelong Adaptive Generation of Multi-turn Exploits Authors: Neeladri Bhuiya, Madhav Aggarwal, Diptanshu Purwar | Published: 2025-10-20 | Updated: 2025-10-22 RAGへのポイズニング攻撃攻撃者ターゲット更新脱獄手法 2025.10.20 文献データベース
NEXUS: Network Exploration for eXploiting Unsafe Sequences in Multi-Turn LLM Jailbreaks Authors: Javad Rafiei Asl, Sidhant Narula, Mohammad Ghasemigol, Eduardo Blanco, Daniel Takabi | Published: 2025-10-03 | Updated: 2025-10-21 プロンプトインジェクション大規模言語モデル脱獄手法 2025.10.03 文献データベース
GuidedBench: Measuring and Mitigating the Evaluation Discrepancies of In-the-wild LLM Jailbreak Methods Authors: Ruixuan Huang, Xunguang Wang, Zongjie Li, Daoyuan Wu, Shuai Wang | Published: 2025-02-24 | Updated: 2025-07-09 プロンプトインジェクション脱獄手法評価手法 2025.02.24 文献データベース
TombRaider: Entering the Vault of History to Jailbreak Large Language Models Authors: Junchen Ding, Jiahao Zhang, Yi Liu, Ziqi Ding, Gelei Deng, Yuekang Li | Published: 2025-01-27 | Updated: 2025-08-25 プロンプトインジェクションプロンプトリーキング脱獄手法 2025.01.27 文献データベース