Does Johnny Get the Message? Evaluating Cybersecurity Notifications for Everyday Users Authors: Victor Jüttner, Erik Buchmann | Published: 2025-05-28 パーソナライズプロンプトインジェクション対策の説明 2025.05.28 文献データベース
Test-Time Immunization: A Universal Defense Framework Against Jailbreaks for (Multimodal) Large Language Models Authors: Yongcan Yu, Yanbo Wang, Ran He, Jian Liang | Published: 2025-05-28 LLMセキュリティプロンプトインジェクション大規模言語モデル 2025.05.28 文献データベース
Jailbreak Distillation: Renewable Safety Benchmarking Authors: Jingyu Zhang, Ahmed Elgohary, Xiawei Wang, A S M Iftekhar, Ahmed Magooda, Benjamin Van Durme, Daniel Khashabi, Kyle Jackson | Published: 2025-05-28 プロンプトインジェクションモデル評価攻撃の評価 2025.05.28 文献データベース
Breaking the Ceiling: Exploring the Potential of Jailbreak Attacks through Expanding Strategy Space Authors: Yao Huang, Yitong Sun, Shouwei Ruan, Yichi Zhang, Yinpeng Dong, Xingxing Wei | Published: 2025-05-27 LLMの安全機構の解除プロンプトインジェクション攻撃の評価 2025.05.27 文献データベース
JavaSith: A Client-Side Framework for Analyzing Potentially Malicious Extensions in Browsers, VS Code, and NPM Packages Authors: Avihay Cohen | Published: 2025-05-27 APIセキュリティクライアント側防御プロンプトインジェクション 2025.05.27 文献データベース
TrojanStego: Your Language Model Can Secretly Be A Steganographic Privacy Leaking Agent Authors: Dominik Meier, Jan Philip Wahle, Paul Röttger, Terry Ruas, Bela Gipp | Published: 2025-05-26 プロンプトインジェクションモデル抽出攻撃透かし技術 2025.05.26 文献データベース
What Really Matters in Many-Shot Attacks? An Empirical Study of Long-Context Vulnerabilities in LLMs Authors: Sangyeop Kim, Yohan Lee, Yongwoo Song, Kimin Lee | Published: 2025-05-26 プロンプトインジェクションモデル性能評価大規模言語モデル 2025.05.26 文献データベース
Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models Authors: Junjie Xiong, Changjia Zhu, Shuhang Lin, Chong Zhang, Yongfeng Zhang, Yao Liu, Lingyao Li | Published: 2025-05-22 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.05.22 文献データベース
CAIN: Hijacking LLM-Humans Conversations via a Two-Stage Malicious System Prompt Generation and Refining Framework Authors: Viet Pham, Thai Le | Published: 2025-05-22 LLMセキュリティプロンプトインジェクション対抗的学習 2025.05.22 文献データベース
When Safety Detectors Aren’t Enough: A Stealthy and Effective Jailbreak Attack on LLMs via Steganographic Techniques Authors: Jianing Geng, Biao Yi, Zekun Fei, Tongxi Wu, Lihai Nie, Zheli Liu | Published: 2025-05-22 LLMの安全機構の解除プロンプトインジェクション透かし除去技術 2025.05.22 文献データベース