Pandora: Jailbreak GPTs by Retrieval Augmented Generation Poisoning Authors: Gelei Deng, Yi Liu, Kailong Wang, Yuekang Li, Tianwei Zhang, Yang Liu | Published: 2024-02-13 LLMセキュリティプロンプトインジェクション悪意のあるコンテンツ生成 2024.02.13 2025.04.03 文献データベース
PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models Authors: Wei Zou, Runpeng Geng, Binghui Wang, Jinyuan Jia | Published: 2024-02-12 | Updated: 2024-08-13 プロンプトインジェクションポイズニングポイズニング攻撃 2024.02.12 2025.04.03 文献データベース
EmojiPrompt: Generative Prompt Obfuscation for Privacy-Preserving Communication with Cloud-based LLMs Authors: Sam Lin, Wenyue Hua, Zhenting Wang, Mingyu Jin, Lizhou Fan, Yongfeng Zhang | Published: 2024-02-08 | Updated: 2025-03-20 ウォーターマーキングプライバシー保護手法プロンプトインジェクション 2024.02.08 2025.04.03 文献データベース
Rapid Optimization for Jailbreaking LLMs via Subconscious Exploitation and Echopraxia Authors: Guangyu Shen, Siyuan Cheng, Kaiyuan Zhang, Guanhong Tao, Shengwei An, Lu Yan, Zhuo Zhang, Shiqing Ma, Xiangyu Zhang | Published: 2024-02-08 LLMセキュリティLLM性能評価プロンプトインジェクション 2024.02.08 2025.04.03 文献データベース
SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models Authors: Lijun Li, Bowen Dong, Ruohui Wang, Xuhao Hu, Wangmeng Zuo, Dahua Lin, Yu Qiao, Jing Shao | Published: 2024-02-07 | Updated: 2024-06-07 LLMセキュリティLLM性能評価プロンプトインジェクション 2024.02.07 2025.04.03 文献データベース
LLM Agents can Autonomously Hack Websites Authors: Richard Fang, Rohan Bindu, Akul Gupta, Qiusi Zhan, Daniel Kang | Published: 2024-02-06 | Updated: 2024-02-16 ウェブサイト脆弱性サイバー攻撃プロンプトインジェクション 2024.02.06 2025.04.03 文献データベース
Detecting Scams Using Large Language Models Authors: Liming Jiang | Published: 2024-02-05 LLMセキュリティフィッシング検出プロンプトインジェクション 2024.02.05 2025.04.03 文献データベース
Reconstruct Your Previous Conversations! Comprehensively Investigating Privacy Leakage Risks in Conversations with GPT Models Authors: Junjie Chu, Zeyang Sha, Michael Backes, Yang Zhang | Published: 2024-02-05 | Updated: 2024-10-07 プライバシー保護プロンプトインジェクション悪意のあるプロンプト 2024.02.05 2025.04.03 文献データベース
Adversarial Text Purification: A Large Language Model Approach for Defense Authors: Raha Moraffah, Shubh Khandelwal, Amrita Bhattacharjee, Huan Liu | Published: 2024-02-05 テキスト生成手法プロンプトインジェクション敵対的テキスト浄化 2024.02.05 2025.04.03 文献データベース
Jailbreaking Attack against Multimodal Large Language Model Authors: Zhenxing Niu, Haodong Ren, Xinbo Gao, Gang Hua, Rong Jin | Published: 2024-02-04 プロンプトインジェクション悪意のあるコンテンツ生成情報収集手法 2024.02.04 2025.04.03 文献データベース