PRSA: PRompt Stealing Attacks against Large Language Models Authors: Yong Yang, Changjiang Li, Yi Jiang, Xi Chen, Haoyu Wang, Xuhong Zhang, Zonghui Wang, Shouling Ji | Published: 2024-02-29 | Updated: 2024-06-08 LLM性能評価プロンプトインジェクションプロンプトエンジニアリング 2024.02.29 2025.04.03 文献データベース
Making Them Ask and Answer: Jailbreaking Large Language Models in Few Queries via Disguise and Reconstruction Authors: Tong Liu, Yingjie Zhang, Zhe Zhao, Yinpeng Dong, Guozhu Meng, Kai Chen | Published: 2024-02-28 | Updated: 2024-06-10 LLMセキュリティLLM性能評価プロンプトインジェクション 2024.02.28 2025.04.03 文献データベース
ChatSpamDetector: Leveraging Large Language Models for Effective Phishing Email Detection Authors: Takashi Koide, Naoki Fukushi, Hiroki Nakano, Daiki Chiba | Published: 2024-02-28 | Updated: 2024-08-23 フィッシング検出プロンプトインジェクションメールセキュリティ 2024.02.28 2025.04.03 文献データベース
Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models Authors: Mingjia Huo, Sai Ashish Somayajula, Youwei Liang, Ruisi Zhang, Farinaz Koushanfar, Pengtao Xie | Published: 2024-02-28 | Updated: 2024-06-06 ウォーターマーキングプロンプトインジェクションマルチオブジェクティブ最適化 2024.02.28 2025.04.03 文献データベース
LLMs Can Defend Themselves Against Jailbreaking in a Practical Manner: A Vision Paper Authors: Daoyuan Wu, Shuai Wang, Yang Liu, Ning Liu | Published: 2024-02-24 | Updated: 2024-03-04 LLMセキュリティプロンプトインジェクションプロンプトエンジニアリング 2024.02.24 2025.04.03 文献データベース
Coercing LLMs to do and reveal (almost) anything Authors: Jonas Geiping, Alex Stein, Manli Shu, Khalid Saifullah, Yuxin Wen, Tom Goldstein | Published: 2024-02-21 LLMセキュリティプロンプトインジェクション攻撃手法 2024.02.21 2025.04.03 文献データベース
A Comprehensive Study of Jailbreak Attack versus Defense for Large Language Models Authors: Zihao Xu, Yi Liu, Gelei Deng, Yuekang Li, Stjepan Picek | Published: 2024-02-21 | Updated: 2024-05-17 LLMセキュリティプロンプトインジェクション防御手法 2024.02.21 2025.04.03 文献データベース
TRAP: Targeted Random Adversarial Prompt Honeypot for Black-Box Identification Authors: Martin Gubri, Dennis Ulmer, Hwaran Lee, Sangdoo Yun, Seong Joon Oh | Published: 2024-02-20 | Updated: 2024-06-06 LLMセキュリティLLM性能評価プロンプトインジェクション 2024.02.20 2025.04.03 文献データベース
Prompt Stealing Attacks Against Large Language Models Authors: Zeyang Sha, Yang Zhang | Published: 2024-02-20 LLMセキュリティプロンプトインジェクションプロンプトエンジニアリング 2024.02.20 2025.04.03 文献データベース
Robust CLIP: Unsupervised Adversarial Fine-Tuning of Vision Embeddings for Robust Large Vision-Language Models Authors: Christian Schlarmann, Naman Deep Singh, Francesco Croce, Matthias Hein | Published: 2024-02-19 | Updated: 2024-06-05 プロンプトインジェクションロバスト性評価敵対的訓練 2024.02.19 2025.04.03 文献データベース