PIG: Privacy Jailbreak Attack on LLMs via Gradient-based Iterative In-Context Optimization Authors: Yidan Wang, Yanan Cao, Yubing Ren, Fang Fang, Zheng Lin, Binxing Fang | Published: 2025-05-15 LLMの安全機構の解除プロンプトインジェクション機械学習のプライバシー保護 2025.05.15 文献データベース
One Trigger Token Is Enough: A Defense Strategy for Balancing Safety and Usability in Large Language Models Authors: Haoran Gu, Handing Wang, Yi Mei, Mengjie Zhang, Yaochu Jin | Published: 2025-05-12 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.05.12 文献データベース
I Know What You Said: Unveiling Hardware Cache Side-Channels in Local Large Language Model Inference Authors: Zibo Gao, Junjie Hu, Feng Guo, Yixin Zhang, Yinglong Han, Siyuan Liu, Haiyang Li, Zhiqiang Lv | Published: 2025-05-10 | Updated: 2025-05-14 LLMの安全機構の解除プロンプトリーキング攻撃検出手法 2025.05.10 文献データベース
Red Teaming the Mind of the Machine: A Systematic Evaluation of Prompt Injection and Jailbreak Vulnerabilities in LLMs Authors: Chetan Pathade | Published: 2025-05-07 | Updated: 2025-05-13 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.05.07 文献データベース
XBreaking: Explainable Artificial Intelligence for Jailbreaking LLMs Authors: Marco Arazzi, Vignesh Kumar Kembu, Antonino Nocera, Vinod P | Published: 2025-04-30 LLMの安全機構の解除プロンプトインジェクション説明手法 2025.04.30 文献データベース
LLM-IFT: LLM-Powered Information Flow Tracking for Secure Hardware Authors: Nowfel Mashnoor, Mohammad Akyash, Hadi Kamali, Kimia Azar | Published: 2025-04-09 LLMの安全機構の解除フレームワーク効率的な構成検証 2025.04.09 文献データベース
Output Constraints as Attack Surface: Exploiting Structured Generation to Bypass LLM Safety Mechanisms Authors: Shuoming Zhang, Jiacheng Zhao, Ruiyuan Xu, Xiaobing Feng, Huimin Cui | Published: 2025-03-31 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.03.31 2025.04.03 文献データベース
Align in Depth: Defending Jailbreak Attacks via Progressive Answer Detoxification Authors: Yingjie Zhang, Tong Liu, Zhe Zhao, Guozhu Meng, Kai Chen | Published: 2025-03-14 LLMの安全機構の解除プロンプトインジェクション悪意のあるプロンプト 2025.03.14 2025.04.03 文献データベース
Siege: Autonomous Multi-Turn Jailbreaking of Large Language Models with Tree Search Authors: Andy Zhou | Published: 2025-03-13 | Updated: 2025-03-16 LLMの安全機構の解除攻撃手法生成モデル 2025.03.13 2025.04.03 文献データベース
A Mousetrap: Fooling Large Reasoning Models for Jailbreak with Chain of Iterative Chaos Authors: Yang Yao, Xuan Tong, Ruofan Wang, Yixu Wang, Lujundong Li, Liang Liu, Yan Teng, Yingchun Wang | Published: 2025-02-19 | Updated: 2025-06-03 LLMの安全機構の解除倫理的考慮大規模言語モデル 2025.02.19 文献データベース