LLMs Can Defend Themselves Against Jailbreaking in a Practical Manner: A Vision Paper Authors: Daoyuan Wu, Shuai Wang, Yang Liu, Ning Liu | Published: 2024-02-24 | Updated: 2024-03-04 LLMセキュリティプロンプトインジェクションプロンプトエンジニアリング 2024.02.24 2025.04.03 文献データベース
On Trojan Signatures in Large Language Models of Code Authors: Aftab Hussain, Md Rafiqul Islam Rabin, Mohammad Amin Alipour | Published: 2024-02-23 | Updated: 2024-03-07 LLMセキュリティトロイの木馬の署名トロイの木馬検出 2024.02.23 2025.04.03 文献データベース
Coercing LLMs to do and reveal (almost) anything Authors: Jonas Geiping, Alex Stein, Manli Shu, Khalid Saifullah, Yuxin Wen, Tom Goldstein | Published: 2024-02-21 LLMセキュリティプロンプトインジェクション攻撃手法 2024.02.21 2025.04.03 文献データベース
A Comprehensive Study of Jailbreak Attack versus Defense for Large Language Models Authors: Zihao Xu, Yi Liu, Gelei Deng, Yuekang Li, Stjepan Picek | Published: 2024-02-21 | Updated: 2024-05-17 LLMセキュリティプロンプトインジェクション防御手法 2024.02.21 2025.04.03 文献データベース
The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative Authors: Zhen Tan, Chengshuai Zhao, Raha Moraffah, Yifan Li, Yu Kong, Tianlong Chen, Huan Liu | Published: 2024-02-20 | Updated: 2024-06-03 LLMセキュリティ悪意のある行為者の分類攻撃手法 2024.02.20 2025.04.03 文献データベース
TRAP: Targeted Random Adversarial Prompt Honeypot for Black-Box Identification Authors: Martin Gubri, Dennis Ulmer, Hwaran Lee, Sangdoo Yun, Seong Joon Oh | Published: 2024-02-20 | Updated: 2024-06-06 LLMセキュリティLLM性能評価プロンプトインジェクション 2024.02.20 2025.04.03 文献データベース
Prompt Stealing Attacks Against Large Language Models Authors: Zeyang Sha, Yang Zhang | Published: 2024-02-20 LLMセキュリティプロンプトインジェクションプロンプトエンジニアリング 2024.02.20 2025.04.03 文献データベース
SPML: A DSL for Defending Language Models Against Prompt Attacks Authors: Reshabh K Sharma, Vinayak Gupta, Dan Grossman | Published: 2024-02-19 LLMセキュリティシステムプロンプト生成プロンプトインジェクション 2024.02.19 2025.04.03 文献データベース
Using Hallucinations to Bypass GPT4’s Filter Authors: Benjamin Lemkin | Published: 2024-02-16 | Updated: 2024-03-11 LLMセキュリティプロンプトインジェクション不適切コンテンツ生成 2024.02.16 2025.04.03 文献データベース
PAL: Proxy-Guided Black-Box Attack on Large Language Models Authors: Chawin Sitawarin, Norman Mu, David Wagner, Alexandre Araujo | Published: 2024-02-15 LLMセキュリティプロンプトインジェクション攻撃手法 2024.02.15 2025.04.03 文献データベース