R1dacted: Investigating Local Censorship in DeepSeek’s R1 Language Model Authors: Ali Naseh, Harsh Chaudhari, Jaechul Roh, Mingshi Wu, Alina Oprea, Amir Houmansadr | Published: 2025-05-19 AIによる出力のバイアスの検出プロンプトリーキング検閲行動 2025.05.19 文献データベース
Elevating Cyber Threat Intelligence against Disinformation Campaigns with LLM-based Concept Extraction and the FakeCTI Dataset Authors: Domenico Cotroneo, Roberto Natella, Vittorio Orbinato | Published: 2025-05-06 AIによる出力のバイアスの検出偽情報の検出情報抽出手法 2025.05.06 文献データベース
LLM-Based Threat Detection and Prevention Framework for IoT Ecosystems Authors: Yazan Otoum, Arghavan Asad, Amiya Nayak | Published: 2025-05-01 AIによる出力のバイアスの検出LLM性能評価プロンプトインジェクション 2025.05.01 文献データベース
Synthesizing Access Control Policies using Large Language Models Authors: Adarsh Vatsa, Pratyush Patel, William Eiers | Published: 2025-03-14 AIによる出力のバイアスの検出データ生成手法プライバシー設計原則 2025.03.14 2025.04.03 文献データベース
PriFFT: Privacy-preserving Federated Fine-tuning of Large Language Models via Hybrid Secret Sharing Authors: Zhichao You, Xuewen Dong, Ke Cheng, Xutong Mu, Jiaxuan Fu, Shiyang Ma, Qiang Qu, Yulong Shen | Published: 2025-03-05 | Updated: 2025-05-14 AIによる出力のバイアスの検出プライバシー設計原則暗号技術 2025.03.05 文献データベース
ThreatModeling-LLM: Automating Threat Modeling using Large Language Models for Banking System Authors: Tingmin Wu, Shuiqiao Yang, Shigang Liu, David Nguyen, Seung Jang, Alsharif Abuadbba | Published: 2024-11-26 | Updated: 2025-05-14 AIによる出力のバイアスの検出プロンプトリーキング脅威モデリング自動化 2024.11.26 文献データベース
Measuring Implicit Bias in Explicitly Unbiased Large Language Models Authors: Xuechunzi Bai, Angelina Wang, Ilia Sucholutsky, Thomas L. Griffiths | Published: 2024-02-06 | Updated: 2024-05-23 AIによる出力のバイアスの検出アルゴリズムの公平性大規模言語モデル 2024.02.06 2025.04.03 文献データベース
Gender bias and stereotypes in Large Language Models Authors: Hadas Kotek, Rikker Dockum, David Q. Sun | Published: 2023-08-28 AIによる出力のバイアスの検出アルゴリズムの公平性大規模言語モデル 2023.08.28 2025.04.03 文献データベース
ADEPT: A DEbiasing PrompT Framework Authors: Ke Yang, Charles Yu, Yi Fung, Manling Li, Heng Ji | Published: 2022-11-10 | Updated: 2022-12-23 AIによる出力のバイアスの検出プロンプティング戦略公平性のあるAIモデルの作成 2022.11.10 2025.04.03 文献データベース
Few-shot Instruction Prompts for Pretrained Language Models to Detect Social Biases Authors: Shrimai Prabhumoye, Rafal Kocielnik, Mohammad Shoeybi, Anima Anandkumar, Bryan Catanzaro | Published: 2021-12-15 | Updated: 2022-04-15 AIによる出力のバイアスの検出Few-Shot Learning大規模言語モデル 2021.12.15 2025.04.03 文献データベース