Cost-Effective Hallucination Detection for LLMs Authors: Simon Valentin, Jinmiao Fu, Gianluca Detommaso, Shaoyuan Xu, Giovanni Zappella, Bryan Wang | Published: 2024-07-31 | Updated: 2024-08-09 ハルシネーションハルシネーションの検知生成モデル 2024.07.31 2025.04.03 文献データベース
On Large Language Models’ Hallucination with Regard to Known Facts Authors: Che Jiang, Biqing Qi, Xiangyu Hong, Dayuan Fu, Yang Cheng, Fandong Meng, Mo Yu, Bowen Zhou, Jie Zhou | Published: 2024-03-29 | Updated: 2024-10-28 ハルシネーションハルシネーションの検知モデルアーキテクチャ 2024.03.29 2025.04.03 文献データベース
Measuring and Reducing LLM Hallucination without Gold-Standard Answers Authors: Jiaheng Wei, Yuanshun Yao, Jean-Francois Ton, Hongyi Guo, Andrew Estornell, Yang Liu | Published: 2024-02-16 | Updated: 2024-06-06 Few-Shot Learningハルシネーションの検知透かし評価 2024.02.16 2025.04.03 文献データベース
The Dawn After the Dark: An Empirical Study on Factuality Hallucination in Large Language Models Authors: Junyi Li, Jie Chen, Ruiyang Ren, Xiaoxue Cheng, Wayne Xin Zhao, Jian-Yun Nie, Ji-Rong Wen | Published: 2024-01-06 LLMの幻覚ハルシネーションハルシネーションの検知 2024.01.06 2025.04.03 文献データベース
Quantifying and Attributing the Hallucination of Large Language Models via Association Analysis Authors: Li Du, Yequan Wang, Xingrun Xing, Yiqun Ya, Xiang Li, Xin Jiang, Xuezhi Fang | Published: 2023-09-11 ハルシネーションの検知人工知能の役割生成AI向け電子透かし 2023.09.11 2025.04.03 文献データベース