LLMセキュリティ

Getting pwn’d by AI: Penetration Testing with Large Language Models

Authors: Andreas Happe, Jürgen Cito | Published: 2023-07-24 | Updated: 2023-08-17
LLMセキュリティ
プロンプトインジェクション
ペネトレーションテスト手法

Privacy-Preserving Prompt Tuning for Large Language Model Services

Authors: Yansong Li, Zhixing Tan, Yang Liu | Published: 2023-05-10 | Updated: 2025-01-10
DNN IP保護手法
LLMセキュリティ
プライバシー評価

In ChatGPT We Trust? Measuring and Characterizing the Reliability of ChatGPT

Authors: Xinyue Shen, Zeyuan Chen, Michael Backes, Yang Zhang | Published: 2023-04-18 | Updated: 2023-10-05
LLMセキュリティ
プロンプトインジェクション
ユーザー体験評価

Stochastic Parrots Looking for Stochastic Parrots: LLMs are Easy to Fine-Tune and Hard to Detect with other LLMs

Authors: Da Silva Gameiro Henrique, Andrei Kucharavy, Rachid Guerraoui | Published: 2023-04-18
LLMセキュリティ
テキスト生成手法
生成的敵対ネットワーク

Multi-step Jailbreaking Privacy Attacks on ChatGPT

Authors: Haoran Li, Dadi Guo, Wei Fan, Mingshi Xu, Jie Huang, Fanpu Meng, Yangqiu Song | Published: 2023-04-11 | Updated: 2023-11-01
LLMセキュリティ
プライバシー分析
プロンプトインジェクション