大規模言語モデル

S-Eval: Towards Automated and Comprehensive Safety Evaluation for Large Language Models

Authors: Xiaohan Yuan, Jinfeng Li, Dongxia Wang, Yuefeng Chen, Xiaofeng Mao, Longtao Huang, Jialuo Chen, Hui Xue, Xiaoxia Liu, Wenhai Wang, Kui Ren, Jingyi Wang | Published: 2024-05-23 | Updated: 2025-04-07
リスク分析手法
大規模言語モデル
安全性アライメント

Watermark Stealing in Large Language Models

Authors: Nikola Jovanović, Robin Staab, Martin Vechev | Published: 2024-02-29 | Updated: 2024-06-24
モデル抽出攻撃
大規模言語モデル
攻撃の分類

Measuring Implicit Bias in Explicitly Unbiased Large Language Models

Authors: Xuechunzi Bai, Angelina Wang, Ilia Sucholutsky, Thomas L. Griffiths | Published: 2024-02-06 | Updated: 2024-05-23
AIによる出力のバイアスの検出
アルゴリズムの公平性
大規模言語モデル

Efficient Toxic Content Detection by Bootstrapping and Distilling Large Language Models

Authors: Jiang Zhang, Qiong Wu, Yiming Xu, Cheng Cao, Zheng Du, Konstantinos Psounis | Published: 2023-12-13
プロンプティング戦略
出力の有害度の算出
大規模言語モデル

Gender bias and stereotypes in Large Language Models

Authors: Hadas Kotek, Rikker Dockum, David Q. Sun | Published: 2023-08-28
AIによる出力のバイアスの検出
アルゴリズムの公平性
大規模言語モデル

Toxicity Detection with Generative Prompt-based Inference

Authors: Yau-Shian Wang, Yingshan Chang | Published: 2022-05-24
プロンプティング戦略
出力の有害度の算出
大規模言語モデル

Few-shot Instruction Prompts for Pretrained Language Models to Detect Social Biases

Authors: Shrimai Prabhumoye, Rafal Kocielnik, Mohammad Shoeybi, Anima Anandkumar, Bryan Catanzaro | Published: 2021-12-15 | Updated: 2022-04-15
AIによる出力のバイアスの検出
Few-Shot Learning
大規模言語モデル

Measuring Bias in Contextualized Word Representations

Authors: Keita Kurita, Nidhi Vyas, Ayush Pareek, Alan W Black, Yulia Tsvetkov | Published: 2019-06-18
AIによる出力のバイアスの検出
アルゴリズムの公平性
大規模言語モデル

A Machine Learning Approach To Prevent Malicious Calls Over Telephony Networks

Authors: Huichen Li, Xiaojun Xu, Chang Liu, Teng Ren, Kun Wu, Xuezhi Cao, Weinan Zhang, Yong Yu, Dawn Song | Published: 2018-04-07
大規模言語モデル
時間に関連する特徴
統計的分析