大規模言語モデル

Gender bias and stereotypes in Large Language Models

Authors: Hadas Kotek, Rikker Dockum, David Q. Sun | Published: 2023-08-28
AIによる出力のバイアスの検出
アルゴリズムの公平性
大規模言語モデル

Toxicity Detection with Generative Prompt-based Inference

Authors: Yau-Shian Wang, Yingshan Chang | Published: 2022-05-24
プロンプティング戦略
出力の有害度の算出
大規模言語モデル

Few-shot Instruction Prompts for Pretrained Language Models to Detect Social Biases

Authors: Shrimai Prabhumoye, Rafal Kocielnik, Mohammad Shoeybi, Anima Anandkumar, Bryan Catanzaro | Published: 2021-12-15 | Updated: 2022-04-15
AIによる出力のバイアスの検出
Few-Shot Learning
大規模言語モデル

Measuring Bias in Contextualized Word Representations

Authors: Keita Kurita, Nidhi Vyas, Ayush Pareek, Alan W Black, Yulia Tsvetkov | Published: 2019-06-18
AIによる出力のバイアスの検出
アルゴリズムの公平性
大規模言語モデル

A Machine Learning Approach To Prevent Malicious Calls Over Telephony Networks

Authors: Huichen Li, Xiaojun Xu, Chang Liu, Teng Ren, Kun Wu, Xuezhi Cao, Weinan Zhang, Yong Yu, Dawn Song | Published: 2018-04-07
大規模言語モデル
時間に関連する特徴
統計的分析