EEG-Defender: Defending against Jailbreak through Early Exit Generation of Large Language Models Authors: Chongwen Zhao, Zhihao Dou, Kaizhu Huang | Published: 2024-08-21 LLMセキュリティプロンプトインジェクション防御手法 2024.08.21 2025.04.03 文献データベース
Hide Your Malicious Goal Into Benign Narratives: Jailbreak Large Language Models through Carrier Articles Authors: Zhilong Wang, Haizhou Wang, Nanqing Luo, Lan Zhang, Xiaoyan Sun, Yebo Cao, Peng Liu | Published: 2024-08-20 | Updated: 2025-02-07 プロンプトインジェクション大規模言語モデル攻撃シナリオ分析 2024.08.20 2025.04.03 文献データベース
Security Attacks on LLM-based Code Completion Tools Authors: Wen Cheng, Ke Sun, Xinyu Zhang, Wei Wang | Published: 2024-08-20 | Updated: 2025-01-02 LLMセキュリティプロンプトインジェクション攻撃手法 2024.08.20 2025.04.03 文献データベース
LeCov: Multi-level Testing Criteria for Large Language Models Authors: Xuan Xie, Jiayang Song, Yuheng Huang, Da Song, Fuyuan Zhang, Felix Juefei-Xu, Lei Ma | Published: 2024-08-20 LLM性能評価テスト優先順位付けプロンプトインジェクション 2024.08.20 2025.04.03 文献データベース
Antidote: Post-fine-tuning Safety Alignment for Large Language Models against Harmful Fine-tuning Authors: Tiansheng Huang, Gautam Bhattacharya, Pratik Joshi, Josh Kimball, Ling Liu | Published: 2024-08-18 | Updated: 2024-09-03 LLMセキュリティプロンプトインジェクション安全性アライメント 2024.08.18 2025.04.03 文献データベース
MIA-Tuner: Adapting Large Language Models as Pre-training Text Detector Authors: Wenjie Fu, Huandong Wang, Chen Gao, Guanghua Liu, Yong Li, Tao Jiang | Published: 2024-08-16 LLMセキュリティプロンプトインジェクションメンバーシップ推論 2024.08.16 2025.04.03 文献データベース
PatUntrack: Automated Generating Patch Examples for Issue Reports without Tracked Insecure Code Authors: Ziyou Jiang, Lin Shi, Guowei Yang, Qing Wang | Published: 2024-08-16 コード生成プロンプトインジェクション脆弱性管理 2024.08.16 2025.04.03 文献データベース
DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts Authors: Xiongtao Sun, Gan Liu, Zhipeng He, Hui Li, Xiaoguang Li | Published: 2024-08-16 LLMセキュリティプライバシー保護手法プロンプトインジェクション 2024.08.16 2025.04.03 文献データベース
Prefix Guidance: A Steering Wheel for Large Language Models to Defend Against Jailbreak Attacks Authors: Jiawei Zhao, Kejiang Chen, Xiaojian Yuan, Weiming Zhang | Published: 2024-08-15 | Updated: 2024-08-22 LLMセキュリティプロンプトインジェクション防御手法 2024.08.15 2025.04.03 文献データベース
LLM-Enhanced Static Analysis for Precise Identification of Vulnerable OSS Versions Authors: Yiran Cheng, Lwin Khin Shar, Ting Zhang, Shouguo Yang, Chaopeng Dong, David Lo, Shichao Lv, Zhiqiang Shi, Limin Sun | Published: 2024-08-14 コード変更分析プロンプトインジェクション脆弱性管理 2024.08.14 2025.04.03 文献データベース