A Qualitative Study on Using ChatGPT for Software Security: Perception vs. Practicality Authors: M. Mehdi Kholoosi, M. Ali Babar, Roland Croft | Published: 2024-08-01 セキュリティ分析プロンプトインジェクション脆弱性管理 2024.08.01 2025.04.03 文献データベース
From ML to LLM: Evaluating the Robustness of Phishing Webpage Detection Models against Adversarial Attacks Authors: Aditya Kulkarni, Vivek Balachandran, Dinil Mon Divakaran, Tamal Das | Published: 2024-07-29 | Updated: 2025-03-15 データセット生成フィッシング検出プロンプトインジェクション 2024.07.29 2025.04.03 文献データベース
Private prediction for large-scale synthetic text generation Authors: Kareem Amin, Alex Bie, Weiwei Kong, Alexey Kurakin, Natalia Ponomareva, Umar Syed, Andreas Terzis, Sergei Vassilvitskii | Published: 2024-07-16 | Updated: 2024-10-09 ウォーターマーキングプライバシー保護手法プロンプトインジェクション 2024.07.16 2025.04.03 文献データベース
TPIA: Towards Target-specific Prompt Injection Attack against Code-oriented Large Language Models Authors: Yuchen Yang, Hongwei Yao, Bingrun Yang, Yiling He, Yiming Li, Tianwei Zhang, Zhan Qin, Kui Ren, Chun Chen | Published: 2024-07-12 | Updated: 2025-01-16 LLMセキュリティプロンプトインジェクション攻撃手法 2024.07.12 2025.04.03 文献データベース
Refusing Safe Prompts for Multi-modal Large Language Models Authors: Zedian Shao, Hongbin Liu, Yuepeng Hu, Neil Zhenqiang Gong | Published: 2024-07-12 | Updated: 2024-09-05 LLMセキュリティプロンプトインジェクション評価手法 2024.07.12 2025.04.03 文献データベース
From Theft to Bomb-Making: The Ripple Effect of Unlearning in Defending Against Jailbreak Attacks Authors: Zhexin Zhang, Junxiao Yang, Yida Lu, Pei Ke, Shiyao Cui, Chujie Zheng, Hongning Wang, Minlie Huang | Published: 2024-07-03 | Updated: 2025-05-20 プロンプトインジェクション大規模言語モデル法執行回避 2024.07.03 文献データベース
On Discrete Prompt Optimization for Diffusion Models Authors: Ruochen Wang, Ting Liu, Cho-Jui Hsieh, Boqing Gong | Published: 2024-06-27 ウォーターマーキングプロンプトインジェクションプロンプトエンジニアリング 2024.06.27 2025.04.03 文献データベース
CleanGen: Mitigating Backdoor Attacks for Generation Tasks in Large Language Models Authors: Yuetai Li, Zhangchen Xu, Fengqing Jiang, Luyao Niu, Dinuka Sahabandu, Bhaskar Ramasubramanian, Radha Poovendran | Published: 2024-06-18 | Updated: 2025-03-27 LLMセキュリティバックドア攻撃プロンプトインジェクション 2024.06.18 2025.04.03 文献データベース
ChatBug: A Common Vulnerability of Aligned LLMs Induced by Chat Templates Authors: Fengqing Jiang, Zhangchen Xu, Luyao Niu, Bill Yuchen Lin, Radha Poovendran | Published: 2024-06-17 | Updated: 2025-01-07 LLMセキュリティプロンプトインジェクション脆弱性管理 2024.06.17 2025.04.03 文献データベース
GoldCoin: Grounding Large Language Models in Privacy Laws via Contextual Integrity Theory Authors: Wei Fan, Haoran Li, Zheye Deng, Weiqi Wang, Yangqiu Song | Published: 2024-06-17 | Updated: 2024-10-04 LLM性能評価プライバシー保護手法プロンプトインジェクション 2024.06.17 2025.04.03 文献データベース