Can Large Language Models Really Recognize Your Name? Authors: Dzung Pham, Peter Kairouz, Niloofar Mireshghallah, Eugene Bagdasarian, Chau Minh Pham, Amir Houmansadr | Published: 2025-05-20 LLMセキュリティインダイレクトプロンプトインジェクションプライバシー漏洩 2025.05.20 文献データベース
Is Your Prompt Safe? Investigating Prompt Injection Attacks Against Open-Source LLMs Authors: Jiawen Wang, Pritha Gupta, Ivan Habernal, Eyke Hüllermeier | Published: 2025-05-20 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.05.20 文献データベース
Exploring Jailbreak Attacks on LLMs through Intent Concealment and Diversion Authors: Tiehan Cui, Yanxu Mao, Peipei Liu, Congying Liu, Datao You | Published: 2025-05-20 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.05.20 文献データベース
Adversarially Pretrained Transformers may be Universally Robust In-Context Learners Authors: Soichiro Kumano, Hiroshi Kera, Toshihiko Yamasaki | Published: 2025-05-20 モデルの頑健性保証ロバスト性とプライバシーの関係敵対的学習 2025.05.20 文献データベース
PandaGuard: Systematic Evaluation of LLM Safety in the Era of Jailbreaking Attacks Authors: Guobin Shen, Dongcheng Zhao, Linghao Feng, Xiang He, Jihang Wang, Sicheng Shen, Haibo Tong, Yiting Dong, Jindong Li, Xiang Zheng, Yi Zeng | Published: 2025-05-20 LLMの安全機構の解除プロンプトインジェクション防御手法の効果分析 2025.05.20 文献データベース
Fragments to Facts: Partial-Information Fragment Inference from LLMs Authors: Lucas Rosenblatt, Bin Han, Robert Wolfe, Bill Howe | Published: 2025-05-20 プライバシー漏洩プロンプトリーキング医療AIの脅威 2025.05.20 文献データベース
FlowPure: Continuous Normalizing Flows for Adversarial Purification Authors: Elias Collaert, Abel Rodríguez, Sander Joos, Lieven Desmet, Vera Rimmer | Published: 2025-05-19 堅牢性向上手法敵対的学習防御手法の効果分析 2025.05.19 文献データベース
Fixing 7,400 Bugs for 1$: Cheap Crash-Site Program Repair Authors: Han Zheng, Ilia Shumailov, Tianqi Fan, Aiden Hall, Mathias Payer | Published: 2025-05-19 LLMセキュリティバグ修正手法透かし技術 2025.05.19 文献データベース
The Hidden Dangers of Browsing AI Agents Authors: Mykyta Mudryi, Markiyan Chaklosh, Grzegorz Wójcik | Published: 2025-05-19 LLMセキュリティインダイレクトプロンプトインジェクション攻撃手法 2025.05.19 文献データベース
Evaluatiing the efficacy of LLM Safety Solutions : The Palit Benchmark Dataset Authors: Sayon Palit, Daniel Woods | Published: 2025-05-19 LLMセキュリティプロンプトインジェクション攻撃手法 2025.05.19 文献データベース