大規模言語モデル

Hide Your Malicious Goal Into Benign Narratives: Jailbreak Large Language Models through Carrier Articles

Authors: Zhilong Wang, Haizhou Wang, Nanqing Luo, Lan Zhang, Xiaoyan Sun, Yebo Cao, Peng Liu | Published: 2024-08-20 | Updated: 2025-02-07
プロンプトインジェクション
大規模言語モデル
攻撃シナリオ分析

From Theft to Bomb-Making: The Ripple Effect of Unlearning in Defending Against Jailbreak Attacks

Authors: Zhexin Zhang, Junxiao Yang, Yida Lu, Pei Ke, Shiyao Cui, Chujie Zheng, Hongning Wang, Minlie Huang | Published: 2024-07-03 | Updated: 2025-05-20
プロンプトインジェクション
大規模言語モデル
法執行回避

Knowledge-to-Jailbreak: Investigating Knowledge-driven Jailbreaking Attacks for Large Language Models

Authors: Shangqing Tu, Zhuoran Pan, Wenxuan Wang, Zhexin Zhang, Yuliang Sun, Jifan Yu, Hongning Wang, Lei Hou, Juanzi Li | Published: 2024-06-17 | Updated: 2025-06-09
LLMとの協力効果
プロンプトインジェクション
大規模言語モデル

S-Eval: Towards Automated and Comprehensive Safety Evaluation for Large Language Models

Authors: Xiaohan Yuan, Jinfeng Li, Dongxia Wang, Yuefeng Chen, Xiaofeng Mao, Longtao Huang, Jialuo Chen, Hui Xue, Xiaoxia Liu, Wenhai Wang, Kui Ren, Jingyi Wang | Published: 2024-05-23 | Updated: 2025-04-07
リスク分析手法
大規模言語モデル
安全性アライメント

Watermark Stealing in Large Language Models

Authors: Nikola Jovanović, Robin Staab, Martin Vechev | Published: 2024-02-29 | Updated: 2024-06-24
モデル抽出攻撃
大規模言語モデル
攻撃の分類

Measuring Implicit Bias in Explicitly Unbiased Large Language Models

Authors: Xuechunzi Bai, Angelina Wang, Ilia Sucholutsky, Thomas L. Griffiths | Published: 2024-02-06 | Updated: 2024-05-23
AIによる出力のバイアスの検出
アルゴリズムの公平性
大規模言語モデル

Efficient Toxic Content Detection by Bootstrapping and Distilling Large Language Models

Authors: Jiang Zhang, Qiong Wu, Yiming Xu, Cheng Cao, Zheng Du, Konstantinos Psounis | Published: 2023-12-13
プロンプティング戦略
出力の有害度の算出
大規模言語モデル

Gender bias and stereotypes in Large Language Models

Authors: Hadas Kotek, Rikker Dockum, David Q. Sun | Published: 2023-08-28
AIによる出力のバイアスの検出
アルゴリズムの公平性
大規模言語モデル

Toxicity Detection with Generative Prompt-based Inference

Authors: Yau-Shian Wang, Yingshan Chang | Published: 2022-05-24
プロンプティング戦略
出力の有害度の算出
大規模言語モデル

Few-shot Instruction Prompts for Pretrained Language Models to Detect Social Biases

Authors: Shrimai Prabhumoye, Rafal Kocielnik, Mohammad Shoeybi, Anima Anandkumar, Bryan Catanzaro | Published: 2021-12-15 | Updated: 2022-04-15
AIによる出力のバイアスの検出
Few-Shot Learning
大規模言語モデル