プロンプトリーキング

Reconstruction of Differentially Private Text Sanitization via Large Language Models

Authors: Shuchao Pang, Zhigang Lu, Haichen Wang, Peng Fu, Yongbin Zhou, Minhui Xue | Published: 2024-10-16 | Updated: 2025-09-18
プライバシー分析
プロンプトインジェクション
プロンプトリーキング

The Early Bird Catches the Leak: Unveiling Timing Side Channels in LLM Serving Systems

Authors: Linke Song, Zixuan Pang, Wenhao Wang, Zihao Wang, XiaoFeng Wang, Hongbo Chen, Wei Song, Yier Jin, Dan Meng, Rui Hou | Published: 2024-09-30 | Updated: 2025-08-13
セキュリティ保証
プロンプトリーキング
攻撃戦略分析

Confidential Prompting: Privacy-preserving LLM Inference on Cloud

Authors: Caihua Li, In Gim, Lin Zhong | Published: 2024-09-27 | Updated: 2025-08-25
プロセス分割手法
プロンプトリーキング
モデル抽出攻撃

Evading Toxicity Detection with ASCII-art: A Benchmark of Spatial Attacks on Moderation Systems

Authors: Sergey Berezin, Reza Farahbakhsh, Noel Crespi | Published: 2024-09-27 | Updated: 2025-09-24
トークン圧縮フレームワーク
プロンプトリーキング
自然言語処理

Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models

Authors: Zi Liang, Haibo Hu, Qingqing Ye, Yaxin Xiao, Haoyang Li | Published: 2024-08-05 | Updated: 2025-02-12
プロンプトインジェクション
プロンプトリーキング
モデル評価

From Sands to Mansions: Towards Automated Cyberattack Emulation with Classical Planning and Large Language Models

Authors: Lingzhi Wang, Zhenyuan Li, Yi Jiang, Zhengkai Wang, Zonghan Guo, Jiahui Wang, Yangyang Wei, Xiangmin Shen, Wei Ruan, Yan Chen | Published: 2024-07-24 | Updated: 2025-04-17
プロンプトリーキング
攻撃アクションモデル
攻撃検出手法

ProxyGPT: Enabling User Anonymity in LLM Chatbots via (Un)Trustworthy Volunteer Proxies

Authors: Dzung Pham, Jade Sheffey, Chau Minh Pham, Amir Houmansadr | Published: 2024-07-11 | Updated: 2025-06-11
プライバシー保護技術
プロンプトインジェクション
プロンプトリーキング

Chain-of-Scrutiny: Detecting Backdoor Attacks for Large Language Models

Authors: Xi Li, Ruofan Mao, Yusen Zhang, Renze Lou, Chen Wu, Jiaqi Wang | Published: 2024-06-10 | Updated: 2025-10-30
インダイレクトプロンプトインジェクション
トリガーの検知
プロンプトリーキング

Human-Imperceptible Retrieval Poisoning Attacks in LLM-Powered Applications

Authors: Quan Zhang, Binqi Zeng, Chijin Zhou, Gwihwan Go, Heyuan Shi, Yu Jiang | Published: 2024-04-26
RAGへのポイズニング攻撃
プロンプトリーキング
ポイズニング

Stealing Part of a Production Language Model

Authors: Nicholas Carlini, Daniel Paleka, Krishnamurthy Dj Dvijotham, Thomas Steinke, Jonathan Hayase, A. Feder Cooper, Katherine Lee, Matthew Jagielski, Milad Nasr, Arthur Conmy, Itay Yona, Eric Wallace, David Rolnick, Florian Tramèr | Published: 2024-03-11 | Updated: 2024-07-09
プロンプトリーキング
モデルの堅牢性
モデル抽出攻撃