Measuring Implicit Bias in Explicitly Unbiased Large Language Models Authors: Xuechunzi Bai, Angelina Wang, Ilia Sucholutsky, Thomas L. Griffiths | Published: 2024-02-06 | Updated: 2024-05-23 AIによる出力のバイアスの検出アルゴリズムの公平性大規模言語モデル 2024.02.06 2025.04.03 文献データベース
Gender bias and stereotypes in Large Language Models Authors: Hadas Kotek, Rikker Dockum, David Q. Sun | Published: 2023-08-28 AIによる出力のバイアスの検出アルゴリズムの公平性大規模言語モデル 2023.08.28 2025.04.03 文献データベース
Towards Debiasing Sentence Representations Authors: Paul Pu Liang, Irene Mengze Li, Emily Zheng, Yao Chong Lim, Ruslan Salakhutdinov, Louis-Philippe Morency | Published: 2020-07-16 AIによる出力のバイアスの検出アルゴリズムの公平性公平性のあるAIモデルの作成 2020.07.16 2025.04.03 文献データベース
Poisoning Attacks on Algorithmic Fairness Authors: David Solans, Battista Biggio, Carlos Castillo | Published: 2020-04-15 | Updated: 2020-06-26 アルゴリズムの公平性ポイズニング最適化手法 2020.04.15 2025.04.03 文献データベース
Measuring Bias in Contextualized Word Representations Authors: Keita Kurita, Nidhi Vyas, Ayush Pareek, Alan W Black, Yulia Tsvetkov | Published: 2019-06-18 AIによる出力のバイアスの検出アルゴリズムの公平性大規模言語モデル 2019.06.18 2025.04.03 文献データベース
Human-in-the-loop Artificial Intelligence Authors: Fabio Massimo Zanzotto | Published: 2017-10-23 アルゴリズムの公平性ヒューマンインザループ人工知能規制 2017.10.23 2025.04.03 文献データベース