プロンプトインジェクション

Large Language Models for Code Analysis: Do LLMs Really Do Their Job?

Authors: Chongzhou Fang, Ning Miao, Shaurya Srivastav, Jialin Liu, Ruoyu Zhang, Ruijie Fang, Asmita, Ryan Tsang, Najmeh Nazari, Han Wang, Houman Homayoun | Published: 2023-10-18 | Updated: 2024-03-05
データセット生成
プログラム解析
プロンプトインジェクション

Survey of Vulnerabilities in Large Language Models Revealed by Adversarial Attacks

Authors: Erfan Shayegani, Md Abdullah Al Mamun, Yu Fu, Pedram Zaree, Yue Dong, Nael Abu-Ghazaleh | Published: 2023-10-16
プロンプトインジェクション
敵対的サンプル
敵対的訓練

Catastrophic Jailbreak of Open-source LLMs via Exploiting Generation

Authors: Yangsibo Huang, Samyak Gupta, Mengzhou Xia, Kai Li, Danqi Chen | Published: 2023-10-10
プロンプトインジェクション
攻撃の評価
敵対的攻撃

LLMs Killed the Script Kiddie: How Agents Supported by Large Language Models Change the Landscape of Network Threat Testing

Authors: Stephen Moskal, Sam Laney, Erik Hemberg, Una-May O'Reilly | Published: 2023-10-10
プロンプトインジェクション
情報収集手法
脅威アクター支援

A Semantic Invariant Robust Watermark for Large Language Models

Authors: Aiwei Liu, Leyi Pan, Xuming Hu, Shiao Meng, Lijie Wen | Published: 2023-10-10 | Updated: 2024-05-19
ウォーターマーキング
プロンプトインジェクション
性能評価

SCAR: Power Side-Channel Analysis at RTL-Level

Authors: Amisha Srivastava, Sanjay Das, Navnil Choudhury, Rafail Psiakis, Pedro Henrique Silva, Debjit Pal, Kanad Basu | Published: 2023-10-10
プロンプトインジェクション
暗号学
脆弱性予測

LLM for SoC Security: A Paradigm Shift

Authors: Dipayan Saha, Shams Tarek, Katayoon Yahyaei, Sujan Kumar Saha, Jingbo Zhou, Mark Tehranipoor, Farimah Farahmandi | Published: 2023-10-09
LLMの応用
プロンプトインジェクション
脆弱性検出

Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend To!

Authors: Xiangyu Qi, Yi Zeng, Tinghao Xie, Pin-Yu Chen, Ruoxi Jia, Prateek Mittal, Peter Henderson | Published: 2023-10-05
データ収集
プロンプトインジェクション
情報収集手法

SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks

Authors: Alexander Robey, Eric Wong, Hamed Hassani, George J. Pappas | Published: 2023-10-05 | Updated: 2024-06-11
LLM性能評価
プロンプトインジェクション
防御手法

Misusing Tools in Large Language Models With Visual Adversarial Examples

Authors: Xiaohan Fu, Zihan Wang, Shuheng Li, Rajesh K. Gupta, Niloofar Mireshghallah, Taylor Berg-Kirkpatrick, Earlence Fernandes | Published: 2023-10-04
LLM性能評価
プロンプトインジェクション
敵対的サンプル