Agent Smith: A Single Image Can Jailbreak One Million Multimodal LLM Agents Exponentially Fast Authors: Xiangming Gu, Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Ye Wang, Jing Jiang, Min Lin | Published: 2024-02-13 | Updated: 2024-06-03 LLMセキュリティプロンプトインジェクション敵対的攻撃検出 2024.02.13 2025.04.03 文献データベース
Pandora: Jailbreak GPTs by Retrieval Augmented Generation Poisoning Authors: Gelei Deng, Yi Liu, Kailong Wang, Yuekang Li, Tianwei Zhang, Yang Liu | Published: 2024-02-13 LLMセキュリティプロンプトインジェクション悪意のあるコンテンツ生成 2024.02.13 2025.04.03 文献データベース
Utilizing Large LanguageModels to Detect Privacy Leaks in Mini-App Code Authors: Liming Jiang | Published: 2024-02-12 LLMセキュリティデータプライバシー評価プライバシー保護 2024.02.12 2025.04.03 文献データベース
Sentinels of the Stream: Unleashing Large Language Models for Dynamic Packet Classification in Software Defined Networks — Position Paper Authors: Shariq Murtuza | Published: 2024-02-10 LLMセキュリティウォーターマーキングネットワーク脅威検出 2024.02.10 2025.04.03 文献データベース
In-Context Learning Can Re-learn Forbidden Tasks Authors: Sophie Xhonneux, David Dobre, Jian Tang, Gauthier Gidel, Dhanya Sridhar | Published: 2024-02-08 Few-Shot LearningLLMセキュリティLLM性能評価 2024.02.08 2025.04.03 文献データベース
Rapid Optimization for Jailbreaking LLMs via Subconscious Exploitation and Echopraxia Authors: Guangyu Shen, Siyuan Cheng, Kaiyuan Zhang, Guanhong Tao, Shengwei An, Lu Yan, Zhuo Zhang, Shiqing Ma, Xiangyu Zhang | Published: 2024-02-08 LLMセキュリティLLM性能評価プロンプトインジェクション 2024.02.08 2025.04.03 文献データベース
SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models Authors: Lijun Li, Bowen Dong, Ruohui Wang, Xuhao Hu, Wangmeng Zuo, Dahua Lin, Yu Qiao, Jing Shao | Published: 2024-02-07 | Updated: 2024-06-07 LLMセキュリティLLM性能評価プロンプトインジェクション 2024.02.07 2025.04.03 文献データベース
Homograph Attacks on Maghreb Sentiment Analyzers Authors: Fatima Zahra Qachfar, Rakesh M. Verma | Published: 2024-02-05 LLMセキュリティデータセット生成モデル性能評価 2024.02.05 2025.04.03 文献データベース
Detecting Scams Using Large Language Models Authors: Liming Jiang | Published: 2024-02-05 LLMセキュリティフィッシング検出プロンプトインジェクション 2024.02.05 2025.04.03 文献データベース
Signed-Prompt: A New Approach to Prevent Prompt Injection Attacks Against LLM-Integrated Applications Authors: Xuchen Suo | Published: 2024-01-15 LLMセキュリティプロンプトインジェクション 2024.01.15 2025.04.03 文献データベース