LLMセキュリティ

Prompt Stealing Attacks Against Large Language Models

Authors: Zeyang Sha, Yang Zhang | Published: 2024-02-20
LLMセキュリティ
プロンプトインジェクション
プロンプトエンジニアリング

SPML: A DSL for Defending Language Models Against Prompt Attacks

Authors: Reshabh K Sharma, Vinayak Gupta, Dan Grossman | Published: 2024-02-19
LLMセキュリティ
システムプロンプト生成
プロンプトインジェクション

Using Hallucinations to Bypass GPT4’s Filter

Authors: Benjamin Lemkin | Published: 2024-02-16 | Updated: 2024-03-11
LLMセキュリティ
プロンプトインジェクション
不適切コンテンツ生成

PAL: Proxy-Guided Black-Box Attack on Large Language Models

Authors: Chawin Sitawarin, Norman Mu, David Wagner, Alexandre Araujo | Published: 2024-02-15
LLMセキュリティ
プロンプトインジェクション
攻撃手法

Agent Smith: A Single Image Can Jailbreak One Million Multimodal LLM Agents Exponentially Fast

Authors: Xiangming Gu, Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Ye Wang, Jing Jiang, Min Lin | Published: 2024-02-13 | Updated: 2024-06-03
LLMセキュリティ
プロンプトインジェクション
敵対的攻撃検出

Pandora: Jailbreak GPTs by Retrieval Augmented Generation Poisoning

Authors: Gelei Deng, Yi Liu, Kailong Wang, Yuekang Li, Tianwei Zhang, Yang Liu | Published: 2024-02-13
LLMセキュリティ
プロンプトインジェクション
悪意のあるコンテンツ生成

Utilizing Large LanguageModels to Detect Privacy Leaks in Mini-App Code

Authors: Liming Jiang | Published: 2024-02-12
LLMセキュリティ
データプライバシー評価
プライバシー保護

Sentinels of the Stream: Unleashing Large Language Models for Dynamic Packet Classification in Software Defined Networks — Position Paper

Authors: Shariq Murtuza | Published: 2024-02-10
LLMセキュリティ
ウォーターマーキング
ネットワーク脅威検出

In-Context Learning Can Re-learn Forbidden Tasks

Authors: Sophie Xhonneux, David Dobre, Jian Tang, Gauthier Gidel, Dhanya Sridhar | Published: 2024-02-08
Few-Shot Learning
LLMセキュリティ
LLM性能評価

Rapid Optimization for Jailbreaking LLMs via Subconscious Exploitation and Echopraxia

Authors: Guangyu Shen, Siyuan Cheng, Kaiyuan Zhang, Guanhong Tao, Shengwei An, Lu Yan, Zhuo Zhang, Shiqing Ma, Xiangyu Zhang | Published: 2024-02-08
LLMセキュリティ
LLM性能評価
プロンプトインジェクション