LLM Honeypot: Leveraging Large Language Models as Advanced Interactive Honeypot Systems Authors: Hakan T. Otal, M. Abdullah Canbaz | Published: 2024-09-12 | Updated: 2024-09-15 LLMセキュリティサイバーセキュリティプロンプトインジェクション 2024.09.12 2025.04.03 文献データベース
Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches Authors: Jamal Al-Karaki, Muhammad Al-Zafar Khan, Marwan Omar | Published: 2024-09-11 LLMセキュリティプロンプトインジェクションマルウェア分類 2024.09.11 2025.04.03 文献データベース
Context-Aware Membership Inference Attacks against Pre-trained Large Language Models Authors: Hongyan Chang, Ali Shahin Shamsabadi, Kleomenis Katevas, Hamed Haddadi, Reza Shokri | Published: 2024-09-11 LLMセキュリティメンバーシップ推論攻撃手法 2024.09.11 2025.04.03 文献データベース
AdaPPA: Adaptive Position Pre-Fill Jailbreak Attack Approach Targeting LLMs Authors: Lijia Lv, Weigang Zhang, Xuehai Tang, Jie Wen, Feng Liu, Jizhong Han, Songlin Hu | Published: 2024-09-11 LLMセキュリティプロンプトインジェクション攻撃手法 2024.09.11 2025.04.03 文献データベース
Well, that escalated quickly: The Single-Turn Crescendo Attack (STCA) Authors: Alan Aqrawi, Arian Abbasi | Published: 2024-09-04 | Updated: 2024-09-10 LLMセキュリティコンテンツモデレーション攻撃手法 2024.09.04 2025.04.03 文献データベース
“Yes, My LoRD.” Guiding Language Model Extraction with Locality Reinforced Distillation Authors: Zi Liang, Qingqing Ye, Yanyun Wang, Sen Zhang, Yaxin Xiao, Ronghua Li, Jianliang Xu, Haibo Hu | Published: 2024-09-04 | Updated: 2025-05-19 LLMセキュリティモデル抽出攻撃透かし技術 2024.09.04 文献データベース
Unveiling the Vulnerability of Private Fine-Tuning in Split-Based Frameworks for Large Language Models: A Bidirectionally Enhanced Attack Authors: Guanzhong Chen, Zhenghan Qin, Mingxin Yang, Yajie Zhou, Tao Fan, Tianyu Du, Zenglin Xu | Published: 2024-09-02 | Updated: 2024-09-04 LLMセキュリティプロンプトインジェクション攻撃手法 2024.09.02 2025.04.03 文献データベース
Enhancing Source Code Security with LLMs: Demystifying The Challenges and Generating Reliable Repairs Authors: Nafis Tanveer Islam, Joseph Khoury, Andrew Seong, Elias Bou-Harb, Peyman Najafirad | Published: 2024-09-01 LLMセキュリティ脆弱性管理自動脆弱性修復 2024.09.01 2025.04.03 文献データベース
LLM-PBE: Assessing Data Privacy in Large Language Models Authors: Qinbin Li, Junyuan Hong, Chulin Xie, Jeffrey Tan, Rachel Xin, Junyi Hou, Xavier Yin, Zhun Wang, Dan Hendrycks, Zhangyang Wang, Bo Li, Bingsheng He, Dawn Song | Published: 2024-08-23 | Updated: 2024-09-06 LLMセキュリティプライバシー保護手法プロンプトインジェクション 2024.08.23 2025.04.03 文献データベース
EEG-Defender: Defending against Jailbreak through Early Exit Generation of Large Language Models Authors: Chongwen Zhao, Zhihao Dou, Kaizhu Huang | Published: 2024-08-21 LLMセキュリティプロンプトインジェクション防御手法 2024.08.21 2025.04.03 文献データベース