An Empirical Evaluation of LLMs for Solving Offensive Security Challenges Authors: Minghao Shao, Boyuan Chen, Sofija Jancheska, Brendan Dolan-Gavitt, Siddharth Garg, Ramesh Karri, Muhammad Shafique | Published: 2024-02-19 LLM性能評価プロンプトインジェクション教育目的のCTF 2024.02.19 2025.04.03 文献データベース
SPML: A DSL for Defending Language Models Against Prompt Attacks Authors: Reshabh K Sharma, Vinayak Gupta, Dan Grossman | Published: 2024-02-19 LLMセキュリティシステムプロンプト生成プロンプトインジェクション 2024.02.19 2025.04.03 文献データベース
Using Hallucinations to Bypass GPT4’s Filter Authors: Benjamin Lemkin | Published: 2024-02-16 | Updated: 2024-03-11 LLMセキュリティプロンプトインジェクション不適切コンテンツ生成 2024.02.16 2025.04.03 文献データベース
AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns Authors: Ashfak Md Shibli, Mir Mehedi A. Pritom, Maanak Gupta | Published: 2024-02-15 AIチャットボットの悪用サイバー攻撃プロンプトインジェクション 2024.02.15 2025.04.03 文献データベース
PAL: Proxy-Guided Black-Box Attack on Large Language Models Authors: Chawin Sitawarin, Norman Mu, David Wagner, Alexandre Araujo | Published: 2024-02-15 LLMセキュリティプロンプトインジェクション攻撃手法 2024.02.15 2025.04.03 文献データベース
Copyright Traps for Large Language Models Authors: Matthieu Meeus, Igor Shilov, Manuel Faysse, Yves-Alexandre de Montjoye | Published: 2024-02-14 | Updated: 2024-06-04 トラップシーケンス生成プロンプトインジェクション著作権トラップ 2024.02.14 2025.04.03 文献データベース
Agent Smith: A Single Image Can Jailbreak One Million Multimodal LLM Agents Exponentially Fast Authors: Xiangming Gu, Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Ye Wang, Jing Jiang, Min Lin | Published: 2024-02-13 | Updated: 2024-06-03 LLMセキュリティプロンプトインジェクション敵対的攻撃検出 2024.02.13 2025.04.03 文献データベース
Pandora: Jailbreak GPTs by Retrieval Augmented Generation Poisoning Authors: Gelei Deng, Yi Liu, Kailong Wang, Yuekang Li, Tianwei Zhang, Yang Liu | Published: 2024-02-13 LLMセキュリティプロンプトインジェクション悪意のあるコンテンツ生成 2024.02.13 2025.04.03 文献データベース
PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models Authors: Wei Zou, Runpeng Geng, Binghui Wang, Jinyuan Jia | Published: 2024-02-12 | Updated: 2024-08-13 プロンプトインジェクションポイズニングポイズニング攻撃 2024.02.12 2025.04.03 文献データベース
EmojiPrompt: Generative Prompt Obfuscation for Privacy-Preserving Communication with Cloud-based LLMs Authors: Sam Lin, Wenyue Hua, Zhenting Wang, Mingyu Jin, Lizhou Fan, Yongfeng Zhang | Published: 2024-02-08 | Updated: 2025-03-20 ウォーターマーキングプライバシー保護手法プロンプトインジェクション 2024.02.08 2025.04.03 文献データベース