LLMセキュリティ

Agent Smith: A Single Image Can Jailbreak One Million Multimodal LLM Agents Exponentially Fast

Authors: Xiangming Gu, Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Ye Wang, Jing Jiang, Min Lin | Published: 2024-02-13 | Updated: 2024-06-03
LLMセキュリティ
プロンプトインジェクション
敵対的攻撃検出

Pandora: Jailbreak GPTs by Retrieval Augmented Generation Poisoning

Authors: Gelei Deng, Yi Liu, Kailong Wang, Yuekang Li, Tianwei Zhang, Yang Liu | Published: 2024-02-13
LLMセキュリティ
プロンプトインジェクション
悪意のあるコンテンツ生成

Utilizing Large LanguageModels to Detect Privacy Leaks in Mini-App Code

Authors: Liming Jiang | Published: 2024-02-12
LLMセキュリティ
データプライバシー評価
プライバシー保護

Sentinels of the Stream: Unleashing Large Language Models for Dynamic Packet Classification in Software Defined Networks — Position Paper

Authors: Shariq Murtuza | Published: 2024-02-10
LLMセキュリティ
ウォーターマーキング
ネットワーク脅威検出

In-Context Learning Can Re-learn Forbidden Tasks

Authors: Sophie Xhonneux, David Dobre, Jian Tang, Gauthier Gidel, Dhanya Sridhar | Published: 2024-02-08
Few-Shot Learning
LLMセキュリティ
LLM性能評価

Rapid Optimization for Jailbreaking LLMs via Subconscious Exploitation and Echopraxia

Authors: Guangyu Shen, Siyuan Cheng, Kaiyuan Zhang, Guanhong Tao, Shengwei An, Lu Yan, Zhuo Zhang, Shiqing Ma, Xiangyu Zhang | Published: 2024-02-08
LLMセキュリティ
LLM性能評価
プロンプトインジェクション

SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models

Authors: Lijun Li, Bowen Dong, Ruohui Wang, Xuhao Hu, Wangmeng Zuo, Dahua Lin, Yu Qiao, Jing Shao | Published: 2024-02-07 | Updated: 2024-06-07
LLMセキュリティ
LLM性能評価
プロンプトインジェクション

Homograph Attacks on Maghreb Sentiment Analyzers

Authors: Fatima Zahra Qachfar, Rakesh M. Verma | Published: 2024-02-05
LLMセキュリティ
データセット生成
モデル性能評価

Detecting Scams Using Large Language Models

Authors: Liming Jiang | Published: 2024-02-05
LLMセキュリティ
フィッシング検出
プロンプトインジェクション

Signed-Prompt: A New Approach to Prevent Prompt Injection Attacks Against LLM-Integrated Applications

Authors: Xuchen Suo | Published: 2024-01-15
LLMセキュリティ
プロンプトインジェクション