プロンプトインジェクション

Using LLMs for Tabletop Exercises within the Security Domain

Authors: Sam Hays, Jules White | Published: 2024-03-03
サイバーセキュリティ
テーブルトップ演習の課題
プロンプトインジェクション

AutoAttacker: A Large Language Model Guided System to Implement Automatic Cyber-attacks

Authors: Jiacen Xu, Jack W. Stokes, Geoff McDonald, Xuesong Bai, David Marshall, Siyue Wang, Adith Swaminathan, Zhou Li | Published: 2024-03-02
LLMセキュリティ
プロンプトインジェクション
攻撃手法

Teach LLMs to Phish: Stealing Private Information from Language Models

Authors: Ashwinee Panda, Christopher A. Choquette-Choo, Zhengming Zhang, Yaoqing Yang, Prateek Mittal | Published: 2024-03-01
バックドア攻撃
フィッシング検出
プロンプトインジェクション

PRSA: PRompt Stealing Attacks against Large Language Models

Authors: Yong Yang, Changjiang Li, Yi Jiang, Xi Chen, Haoyu Wang, Xuhong Zhang, Zonghui Wang, Shouling Ji | Published: 2024-02-29 | Updated: 2024-06-08
LLM性能評価
プロンプトインジェクション
プロンプトエンジニアリング

Making Them Ask and Answer: Jailbreaking Large Language Models in Few Queries via Disguise and Reconstruction

Authors: Tong Liu, Yingjie Zhang, Zhe Zhao, Yinpeng Dong, Guozhu Meng, Kai Chen | Published: 2024-02-28 | Updated: 2024-06-10
LLMセキュリティ
LLM性能評価
プロンプトインジェクション

ChatSpamDetector: Leveraging Large Language Models for Effective Phishing Email Detection

Authors: Takashi Koide, Naoki Fukushi, Hiroki Nakano, Daiki Chiba | Published: 2024-02-28 | Updated: 2024-08-23
フィッシング検出
プロンプトインジェクション
メールセキュリティ

Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models

Authors: Mingjia Huo, Sai Ashish Somayajula, Youwei Liang, Ruisi Zhang, Farinaz Koushanfar, Pengtao Xie | Published: 2024-02-28 | Updated: 2024-06-06
ウォーターマーキング
プロンプトインジェクション
マルチオブジェクティブ最適化

LLMs Can Defend Themselves Against Jailbreaking in a Practical Manner: A Vision Paper

Authors: Daoyuan Wu, Shuai Wang, Yang Liu, Ning Liu | Published: 2024-02-24 | Updated: 2024-03-04
LLMセキュリティ
プロンプトインジェクション
プロンプトエンジニアリング

Coercing LLMs to do and reveal (almost) anything

Authors: Jonas Geiping, Alex Stein, Manli Shu, Khalid Saifullah, Yuxin Wen, Tom Goldstein | Published: 2024-02-21
LLMセキュリティ
プロンプトインジェクション
攻撃手法

A Comprehensive Study of Jailbreak Attack versus Defense for Large Language Models

Authors: Zihao Xu, Yi Liu, Gelei Deng, Yuekang Li, Stjepan Picek | Published: 2024-02-21 | Updated: 2024-05-17
LLMセキュリティ
プロンプトインジェクション
防御手法