LLMセキュリティ

Chain of Attack: a Semantic-Driven Contextual Multi-Turn attacker for LLM

Authors: Xikang Yang, Xuehai Tang, Songlin Hu, Jizhong Han | Published: 2024-05-09
LLMセキュリティ
プロンプトインジェクション
攻撃手法

Special Characters Attack: Toward Scalable Training Data Extraction From Large Language Models

Authors: Yang Bai, Ge Pei, Jindong Gu, Yong Yang, Xingjun Ma | Published: 2024-05-09 | Updated: 2024-05-20
LLMセキュリティ
ウォーターマーキング
武器所有権

PLLM-CS: Pre-trained Large Language Model (LLM) for Cyber Threat Detection in Satellite Networks

Authors: Mohammed Hassanin, Marwa Keshk, Sara Salim, Majid Alsubaie, Dharmendra Sharma | Published: 2024-05-09
LLMセキュリティ
サイバーセキュリティ
異常検出手法

Large Language Models for Cyber Security: A Systematic Literature Review

Authors: Hanxiang Xu, Shenao Wang, Ningke Li, Kailong Wang, Yanjie Zhao, Kai Chen, Ting Yu, Yang Liu, Haoyu Wang | Published: 2024-05-08 | Updated: 2025-05-15
LLMセキュリティ
インダイレクトプロンプトインジェクション
文献レビュー

LLM Security Guard for Code

Authors: Arya Kavian, Mohammad Mehdi Pourhashem Kallehbasti, Sajjad Kazemi, Ehsan Firouzi, Mohammad Ghafari | Published: 2024-05-02 | Updated: 2024-05-03
LLMセキュリティ
セキュリティ分析
プロンプトインジェクション

Attacks on Third-Party APIs of Large Language Models

Authors: Wanru Zhao, Vidit Khazanchi, Haodi Xing, Xuanli He, Qiongkai Xu, Nicholas Donald Lane | Published: 2024-04-24
LLMセキュリティ
プロンプトインジェクション
攻撃手法

Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models

Authors: Jiaming He, Wenbo Jiang, Guanyu Hou, Wenshu Fan, Rui Zhang, Hongwei Li | Published: 2024-04-23 | Updated: 2025-01-08
LLMセキュリティ
バックドア攻撃
ポイズニング

Protecting Your LLMs with Information Bottleneck

Authors: Zichuan Liu, Zefan Wang, Linjie Xu, Jinyu Wang, Lei Song, Tianchun Wang, Chunlin Chen, Wei Cheng, Jiang Bian | Published: 2024-04-22 | Updated: 2024-10-10
LLMセキュリティ
プロンプトインジェクション
倫理的ガイドライン遵守

Competition Report: Finding Universal Jailbreak Backdoors in Aligned LLMs

Authors: Javier Rando, Francesco Croce, Kryštof Mitka, Stepan Shabalin, Maksym Andriushchenko, Nicolas Flammarion, Florian Tramèr | Published: 2024-04-22 | Updated: 2024-06-06
LLMセキュリティ
バックドア攻撃
プロンプトインジェクション

AdvPrompter: Fast Adaptive Adversarial Prompting for LLMs

Authors: Anselm Paulus, Arman Zharmagambetov, Chuan Guo, Brandon Amos, Yuandong Tian | Published: 2024-04-21
LLMセキュリティ
プロンプトインジェクション
プロンプトエンジニアリング