プロンプトインジェクション

MRJ-Agent: An Effective Jailbreak Agent for Multi-Round Dialogue

Authors: Fengxiang Wang, Ranjie Duan, Peng Xiao, Xiaojun Jia, Shiji Zhao, Cheng Wei, YueFeng Chen, Chongwen Wang, Jialing Tao, Hang Su, Jun Zhu, Hui Xue | Published: 2024-11-06 | Updated: 2025-01-07
プロンプトインジェクション
マルチラウンド対話

SQL Injection Jailbreak: A Structural Disaster of Large Language Models

Authors: Jiawei Zhao, Kejiang Chen, Weiming Zhang, Nenghai Yu | Published: 2024-11-03 | Updated: 2025-05-21
プロンプトインジェクション
プロンプトリーキング
攻撃タイプ

What Features in Prompts Jailbreak LLMs? Investigating the Mechanisms Behind Attacks

Authors: Nathalie Kirch, Constantin Weisser, Severin Field, Helen Yannakoudakis, Stephen Casper | Published: 2024-11-02 | Updated: 2025-05-14
LLMの安全機構の解除
プロンプトインジェクション
探索的攻撃

Defense Against Prompt Injection Attack by Leveraging Attack Techniques

Authors: Yulin Chen, Haoran Li, Zihao Zheng, Yangqiu Song, Dekai Wu, Bryan Hooi | Published: 2024-11-01 | Updated: 2025-07-22
インダイレクトプロンプトインジェクション
プロンプトインジェクション
攻撃手法

Jailbreaking and Mitigation of Vulnerabilities in Large Language Models

Authors: Benji Peng, Keyu Chen, Qian Niu, Ziqian Bi, Ming Liu, Pohsun Feng, Tianyang Wang, Lawrence K. Q. Yan, Yizhu Wen, Yichao Zhang, Caitlyn Heqi Yin | Published: 2024-10-20 | Updated: 2025-05-08
LLMセキュリティ
LLMの安全機構の解除
プロンプトインジェクション

Feint and Attack: Attention-Based Strategies for Jailbreaking and Protecting LLMs

Authors: Rui Pu, Chaozhuo Li, Rui Ha, Zejian Chen, Litian Zhang, Zheng Liu, Lirong Qiu, Zaisheng Ye | Published: 2024-10-18 | Updated: 2025-07-08
LLMの安全機構の解除
プロンプトインジェクション
プロンプトの検証

Reconstruction of Differentially Private Text Sanitization via Large Language Models

Authors: Shuchao Pang, Zhigang Lu, Haichen Wang, Peng Fu, Yongbin Zhou, Minhui Xue | Published: 2024-10-16 | Updated: 2025-09-18
プライバシー分析
プロンプトインジェクション
プロンプトリーキング

Denial-of-Service Poisoning Attacks against Large Language Models

Authors: Kuofeng Gao, Tianyu Pang, Chao Du, Yong Yang, Shu-Tao Xia, Min Lin | Published: 2024-10-14
プロンプトインジェクション
モデルDoS
リソース不足の課題

On Calibration of LLM-based Guard Models for Reliable Content Moderation

Authors: Hongfu Liu, Hengguan Huang, Hao Wang, Xiangming Gu, Ye Wang | Published: 2024-10-14
LLM性能評価
コンテンツモデレーション
プロンプトインジェクション

Can LLMs be Scammed? A Baseline Measurement Study

Authors: Udari Madhushani Sehwag, Kelly Patel, Francesca Mosca, Vineeth Ravi, Jessica Staddon | Published: 2024-10-14
LLM性能評価
プロンプトインジェクション
評価手法