Signed-Prompt: A New Approach to Prevent Prompt Injection Attacks Against LLM-Integrated Applications Authors: Xuchen Suo | Published: 2024-01-15 LLMセキュリティプロンプトインジェクション 2024.01.15 2025.04.03 文献データベース
Detection and Defense Against Prominent Attacks on Preconditioned LLM-Integrated Virtual Assistants Authors: Chun Fai Chan, Daniel Wankit Yip, Aysan Esmradi | Published: 2024-01-02 LLMセキュリティキャラクター役割演技システムプロンプト生成 2024.01.02 2025.04.03 文献データベース
A Novel Evaluation Framework for Assessing Resilience Against Prompt Injection Attacks in Large Language Models Authors: Daniel Wankit Yip, Aysan Esmradi, Chun Fai Chan | Published: 2024-01-02 LLMセキュリティプロンプトインジェクション攻撃の評価 2024.01.02 2025.04.03 文献データベース
Jatmo: Prompt Injection Defense by Task-Specific Finetuning Authors: Julien Piet, Maha Alrashed, Chawin Sitawarin, Sizhe Chen, Zeming Wei, Elizabeth Sun, Basel Alomair, David Wagner | Published: 2023-12-29 | Updated: 2024-01-08 LLMセキュリティサイバー攻撃プロンプトインジェクション 2023.12.29 2025.04.03 文献データベース
MetaAID 2.5: A Secure Framework for Developing Metaverse Applications via Large Language Models Authors: Hongyin Zhu | Published: 2023-12-22 LLMセキュリティデータ生成プロンプトインジェクション 2023.12.22 2025.04.03 文献データベース
No-Skim: Towards Efficiency Robustness Evaluation on Skimming-based Language Models Authors: Shengyao Zhang, Mi Zhang, Xudong Pan, Min Yang | Published: 2023-12-15 | Updated: 2023-12-18 AIの進化LLMセキュリティウォーターマーキング 2023.12.15 2025.04.03 文献データベース
Maatphor: Automated Variant Analysis for Prompt Injection Attacks Authors: Ahmed Salem, Andrew Paverd, Boris Köpf | Published: 2023-12-12 LLMセキュリティプロンプトインジェクション評価手法 2023.12.12 2025.04.03 文献データベース
Make Them Spill the Beans! Coercive Knowledge Extraction from (Production) LLMs Authors: Zhuo Zhang, Guangyu Shen, Guanhong Tao, Siyuan Cheng, Xiangyu Zhang | Published: 2023-12-08 LLMセキュリティプロンプトインジェクション不適切コンテンツ生成 2023.12.08 2025.04.03 文献データベース
Forcing Generative Models to Degenerate Ones: The Power of Data Poisoning Attacks Authors: Shuli Jiang, Swanand Ravindra Kadhe, Yi Zhou, Ling Cai, Nathalie Baracaldo | Published: 2023-12-07 LLMセキュリティポイズニング攻撃モデル性能評価 2023.12.07 2025.04.03 文献データベース
DeceptPrompt: Exploiting LLM-driven Code Generation via Adversarial Natural Language Instructions Authors: Fangzhou Wu, Xiaogeng Liu, Chaowei Xiao | Published: 2023-12-07 | Updated: 2023-12-12 LLMセキュリティコード生成プロンプトインジェクション 2023.12.07 2025.04.03 文献データベース