Attack Prompt Generation for Red Teaming and Defending Large Language Models Authors: Boyi Deng, Wenjie Wang, Fuli Feng, Yang Deng, Qifan Wang, Xiangnan He | Published: 2023-10-19 プロンプトインジェクション攻撃の評価敵対的サンプル 2023.10.19 2025.04.03 文献データベース
Large Language Models for Code Analysis: Do LLMs Really Do Their Job? Authors: Chongzhou Fang, Ning Miao, Shaurya Srivastav, Jialin Liu, Ruoyu Zhang, Ruijie Fang, Asmita, Ryan Tsang, Najmeh Nazari, Han Wang, Houman Homayoun | Published: 2023-10-18 | Updated: 2024-03-05 データセット生成プログラム解析プロンプトインジェクション 2023.10.18 2025.04.03 文献データベース
Survey of Vulnerabilities in Large Language Models Revealed by Adversarial Attacks Authors: Erfan Shayegani, Md Abdullah Al Mamun, Yu Fu, Pedram Zaree, Yue Dong, Nael Abu-Ghazaleh | Published: 2023-10-16 プロンプトインジェクション敵対的サンプル敵対的訓練 2023.10.16 2025.04.03 文献データベース
Catastrophic Jailbreak of Open-source LLMs via Exploiting Generation Authors: Yangsibo Huang, Samyak Gupta, Mengzhou Xia, Kai Li, Danqi Chen | Published: 2023-10-10 プロンプトインジェクション攻撃の評価敵対的攻撃 2023.10.10 2025.04.03 文献データベース
LLMs Killed the Script Kiddie: How Agents Supported by Large Language Models Change the Landscape of Network Threat Testing Authors: Stephen Moskal, Sam Laney, Erik Hemberg, Una-May O'Reilly | Published: 2023-10-10 プロンプトインジェクション情報収集手法脅威アクター支援 2023.10.10 2025.04.03 文献データベース
A Semantic Invariant Robust Watermark for Large Language Models Authors: Aiwei Liu, Leyi Pan, Xuming Hu, Shiao Meng, Lijie Wen | Published: 2023-10-10 | Updated: 2024-05-19 ウォーターマーキングプロンプトインジェクション性能評価 2023.10.10 2025.04.03 文献データベース
SCAR: Power Side-Channel Analysis at RTL-Level Authors: Amisha Srivastava, Sanjay Das, Navnil Choudhury, Rafail Psiakis, Pedro Henrique Silva, Debjit Pal, Kanad Basu | Published: 2023-10-10 プロンプトインジェクション暗号学脆弱性予測 2023.10.10 2025.04.03 文献データベース
LLM for SoC Security: A Paradigm Shift Authors: Dipayan Saha, Shams Tarek, Katayoon Yahyaei, Sujan Kumar Saha, Jingbo Zhou, Mark Tehranipoor, Farimah Farahmandi | Published: 2023-10-09 LLMの応用プロンプトインジェクション脆弱性検出 2023.10.09 2025.04.03 文献データベース
Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend To! Authors: Xiangyu Qi, Yi Zeng, Tinghao Xie, Pin-Yu Chen, Ruoxi Jia, Prateek Mittal, Peter Henderson | Published: 2023-10-05 データ収集プロンプトインジェクション情報収集手法 2023.10.05 2025.04.03 文献データベース
SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks Authors: Alexander Robey, Eric Wong, Hamed Hassani, George J. Pappas | Published: 2023-10-05 | Updated: 2024-06-11 LLM性能評価プロンプトインジェクション防御手法 2023.10.05 2025.04.03 文献データベース