LLMセキュリティ

Casper: Prompt Sanitization for Protecting User Privacy in Web-Based Large Language Models

Authors: Chun Jie Chong, Chenxi Hou, Zhihao Yao, Seyed Mohammadjavad Seyed Talebi | Published: 2024-08-13
LLMセキュリティ
プライバシー保護
プロンプトインジェクション

Kov: Transferable and Naturalistic Black-Box LLM Attacks using Markov Decision Processes and Tree Search

Authors: Robert J. Moss | Published: 2024-08-11
LLMセキュリティ
プロンプトインジェクション
倫理的ガイドライン遵守

Towards Automatic Hands-on-Keyboard Attack Detection Using LLMs in EDR Solutions

Authors: Amit Portnoy, Ehud Azikri, Shay Kels | Published: 2024-08-04
LLMセキュリティ
エンドポイント検出
データ収集

Pathway to Secure and Trustworthy ZSM for LLMs: Attacks, Defense, and Opportunities

Authors: Sunder Ali Khowaja, Parus Khuwaja, Kapal Dev, Hussam Al Hamadi, Engin Zeydan | Published: 2024-08-01 | Updated: 2025-01-06
LLMセキュリティ
メンバーシップ推論
信頼評価モジュール

Jailbreaking Text-to-Image Models with LLM-Based Agents

Authors: Yingkai Dong, Zheng Li, Xiangtao Meng, Ning Yu, Shanqing Guo | Published: 2024-08-01 | Updated: 2024-09-09
LLMセキュリティ
プロンプトインジェクション
モデル性能評価

SLIP: Securing LLMs IP Using Weights Decomposition

Authors: Yehonathan Refael, Adam Hakim, Lev Greenberg, Tal Aviv, Satya Lokam, Ben Fishman, Shachar Seidman | Published: 2024-07-15 | Updated: 2024-08-01
LLMセキュリティ
ウォーターマーキング
セキュアな通信チャネル

TPIA: Towards Target-specific Prompt Injection Attack against Code-oriented Large Language Models

Authors: Yuchen Yang, Hongwei Yao, Bingrun Yang, Yiling He, Yiming Li, Tianwei Zhang, Zhan Qin, Kui Ren, Chun Chen | Published: 2024-07-12 | Updated: 2025-01-16
LLMセキュリティ
プロンプトインジェクション
攻撃手法

Refusing Safe Prompts for Multi-modal Large Language Models

Authors: Zedian Shao, Hongbin Liu, Yuepeng Hu, Neil Zhenqiang Gong | Published: 2024-07-12 | Updated: 2024-09-05
LLMセキュリティ
プロンプトインジェクション
評価手法

CleanGen: Mitigating Backdoor Attacks for Generation Tasks in Large Language Models

Authors: Yuetai Li, Zhangchen Xu, Fengqing Jiang, Luyao Niu, Dinuka Sahabandu, Bhaskar Ramasubramanian, Radha Poovendran | Published: 2024-06-18 | Updated: 2025-03-27
LLMセキュリティ
バックドア攻撃
プロンプトインジェクション

ChatBug: A Common Vulnerability of Aligned LLMs Induced by Chat Templates

Authors: Fengqing Jiang, Zhangchen Xu, Luyao Niu, Bill Yuchen Lin, Radha Poovendran | Published: 2024-06-17 | Updated: 2025-01-07
LLMセキュリティ
プロンプトインジェクション
脆弱性管理