EverTracer: Hunting Stolen Large Language Models via Stealthy and Robust Probabilistic Fingerprint Authors: Zhenhua Xu, Meng Han, Wenpeng Xing | Published: 2025-09-03 LLMの安全機構の解除データ保護手法プロンプトの検証 2025.09.03 文献データベース
Consiglieres in the Shadow: Understanding the Use of Uncensored Large Language Models in Cybercrimes Authors: Zilong Lin, Zichuan Li, Xiaojing Liao, XiaoFeng Wang | Published: 2025-08-18 LLMの安全機構の解除データ生成手法出力の有害度の算出 2025.08.18 文献データベース
PRISON: Unmasking the Criminal Potential of Large Language Models Authors: Xinyi Wu, Geng Hong, Pei Chen, Yueyue Chen, Xudong Pan, Min Yang | Published: 2025-06-19 | Updated: 2025-08-04 LLMの安全機構の解除法執行回避研究方法論 2025.06.19 文献データベース
LLMs Cannot Reliably Judge (Yet?): A Comprehensive Assessment on the Robustness of LLM-as-a-Judge Authors: Songze Li, Chuokun Xu, Jiaying Wang, Xueluan Gong, Chen Chen, Jirui Zhang, Jun Wang, Kwok-Yan Lam, Shouling Ji | Published: 2025-06-11 LLMの安全機構の解除プロンプトインジェクション敵対的攻撃 2025.06.11 文献データベース
Privacy and Security Threat for OpenAI GPTs Authors: Wei Wenying, Zhao Kaifa, Xue Lei, Fan Ming | Published: 2025-06-04 LLMの安全機構の解除プライバシー問題防御メカニズム 2025.06.04 文献データベース
BitBypass: A New Direction in Jailbreaking Aligned Large Language Models with Bitstream Camouflage Authors: Kalyan Nakka, Nitesh Saxena | Published: 2025-06-03 LLMの安全機構の解除フィッシング攻撃の検出率プロンプトインジェクション 2025.06.03 文献データベース
Breaking the Ceiling: Exploring the Potential of Jailbreak Attacks through Expanding Strategy Space Authors: Yao Huang, Yitong Sun, Shouwei Ruan, Yichi Zhang, Yinpeng Dong, Xingxing Wei | Published: 2025-05-27 LLMの安全機構の解除プロンプトインジェクション攻撃の評価 2025.05.27 文献データベース
Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models Authors: Junjie Xiong, Changjia Zhu, Shuhang Lin, Chong Zhang, Yongfeng Zhang, Yao Liu, Lingyao Li | Published: 2025-05-22 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.05.22 文献データベース
When Safety Detectors Aren’t Enough: A Stealthy and Effective Jailbreak Attack on LLMs via Steganographic Techniques Authors: Jianing Geng, Biao Yi, Zekun Fei, Tongxi Wu, Lihai Nie, Zheli Liu | Published: 2025-05-22 LLMの安全機構の解除プロンプトインジェクション透かし除去技術 2025.05.22 文献データベース
Is Your Prompt Safe? Investigating Prompt Injection Attacks Against Open-Source LLMs Authors: Jiawen Wang, Pritha Gupta, Ivan Habernal, Eyke Hüllermeier | Published: 2025-05-20 LLMセキュリティLLMの安全機構の解除プロンプトインジェクション 2025.05.20 文献データベース