An LLM can Fool Itself: A Prompt-Based Adversarial Attack Authors: Xilie Xu, Keyi Kong, Ning Liu, Lizhen Cui, Di Wang, Jingfeng Zhang, Mohan Kankanhalli | Published: 2023-10-20 プロンプトインジェクション悪意のあるプロンプト敵対的攻撃 2023.10.20 2025.04.03 文献データベース
Detecting Language Model Attacks with Perplexity Authors: Gabriel Alon, Michael Kamfonas | Published: 2023-08-27 | Updated: 2023-11-07 LLMセキュリティプロンプトインジェクション悪意のあるプロンプト 2023.08.27 2025.04.03 文献データベース
Abusing Images and Sounds for Indirect Instruction Injection in Multi-Modal LLMs Authors: Eugene Bagdasaryan, Tsung-Yin Hsieh, Ben Nassi, Vitaly Shmatikov | Published: 2023-07-19 | Updated: 2023-10-03 インダイレクトプロンプトインジェクション悪意のあるプロンプト敵対的サンプル 2023.07.19 2025.04.03 文献データベース
Prompt Injection attack against LLM-integrated Applications Authors: Yi Liu, Gelei Deng, Yuekang Li, Kailong Wang, Zihao Wang, Xiaofeng Wang, Tianwei Zhang, Yepang Liu, Haoyu Wang, Yan Zheng, Yang Liu | Published: 2023-06-08 | Updated: 2024-03-02 プロンプトインジェクション悪意のあるプロンプト 2023.06.08 2025.04.03 文献データベース
Not what you’ve signed up for: Compromising Real-World LLM-Integrated Applications with Indirect Prompt Injection Authors: Kai Greshake, Sahar Abdelnabi, Shailesh Mishra, Christoph Endres, Thorsten Holz, Mario Fritz | Published: 2023-02-23 | Updated: 2023-05-05 インダイレクトプロンプトインジェクションプロンプトインジェクション悪意のあるプロンプト 2023.02.23 2025.04.03 文献データベース
Predicting Malicious Insider Threat Scenarios Using Organizational Data and a Heterogeneous Stack-Classifier Authors: Adam James Hall, Nikolaos Pitropakis, William J Buchanan, Naghmeh Moradpoor | Published: 2019-07-24 サイバー脅威ユーザー行動分析悪意のあるプロンプト 2019.07.24 2025.04.03 文献データベース