“Short-length” Adversarial Training Helps LLMs Defend “Long-length” Jailbreak Attacks: Theoretical and Empirical Evidence Authors: Shaopeng Fu, Liang Ding, Di Wang | Published: 2025-02-06 プロンプトインジェクション大規模言語モデル敵対的訓練 2025.02.06 2025.04.03 文献データベース
LLM Safety Alignment is Divergence Estimation in Disguise Authors: Rajdeep Haldar, Ziyi Wang, Qifan Song, Guang Lin, Yue Xing | Published: 2025-02-02 プロンプトインジェクション収束分析大規模言語モデル安全性アライメント 2025.02.02 2025.04.03 文献データベース
A Survey on Responsible LLMs: Inherent Risk, Malicious Use, and Mitigation Strategy Authors: Huandong Wang, Wenjie Fu, Yingzhou Tang, Zhilong Chen, Yuxi Huang, Jinghua Piao, Chen Gao, Fengli Xu, Tao Jiang, Yong Li | Published: 2025-01-16 サーベイ論文プライバシー保護プロンプトインジェクション大規模言語モデル 2025.01.16 2025.04.03 文献データベース
Tag&Tab: Pretraining Data Detection in Large Language Models Using Keyword-Based Membership Inference Attack Authors: Sagiv Antebi, Edan Habler, Asaf Shabtai, Yuval Elovici | Published: 2025-01-14 サイバーセキュリティプライバシー保護大規模言語モデル 2025.01.14 2025.04.03 文献データベース
Exploring and Mitigating Adversarial Manipulation of Voting-Based Leaderboards Authors: Yangsibo Huang, Milad Nasr, Anastasios Angelopoulos, Nicholas Carlini, Wei-Lin Chiang, Christopher A. Choquette-Choo, Daphne Ippolito, Matthew Jagielski, Katherine Lee, Ken Ziyu Liu, Ion Stoica, Florian Tramer, Chiyuan Zhang | Published: 2025-01-13 サイバーセキュリティ大規模言語モデル攻撃の評価 2025.01.13 2025.04.03 文献データベース
SATA: A Paradigm for LLM Jailbreak via Simple Assistive Task Linkage Authors: Xiaoning Dong, Wenbo Hu, Wei Xu, Tianxing He | Published: 2024-12-19 | Updated: 2025-03-21 プロンプトインジェクション大規模言語モデル敵対的学習 2024.12.19 2025.04.03 文献データベース
Towards Action Hijacking of Large Language Model-based Agent Authors: Yuyang Zhang, Kangjie Chen, Jiaxin Gao, Ronghao Cui, Run Wang, Lina Wang, Tianwei Zhang | Published: 2024-12-14 | Updated: 2025-06-12 パフォーマンス評価プロンプトリーキング大規模言語モデル 2024.12.14 文献データベース
“Moralized” Multi-Step Jailbreak Prompts: Black-Box Testing of Guardrails in Large Language Models for Verbal Attacks Authors: Libo Wang | Published: 2024-11-23 | Updated: 2025-03-20 プロンプトインジェクション大規模言語モデル 2024.11.23 2025.04.03 文献データベース
JailbreakLens: Interpreting Jailbreak Mechanism in the Lens of Representation and Circuit Authors: Zeqing He, Zhibo Wang, Zhixuan Chu, Huiyu Xu, Wenhui Zhang, Qinglong Wang, Rui Zheng | Published: 2024-11-17 | Updated: 2025-04-24 ジャイルブレイク攻撃に関する具体的な言及があり、関連性が高いためプロンプトインジェクション大規模言語モデル 2024.11.17 文献データベース
Attention Tracker: Detecting Prompt Injection Attacks in LLMs Authors: Kuo-Han Hung, Ching-Yun Ko, Ambrish Rawat, I-Hsin Chung, Winston H. Hsu, Pin-Yu Chen | Published: 2024-11-01 | Updated: 2025-04-23 インダイレクトプロンプトインジェクション大規模言語モデル注意メカニズム 2024.11.01 文献データベース