Cost-Effective Hallucination Detection for LLMs Authors: Simon Valentin, Jinmiao Fu, Gianluca Detommaso, Shaoyuan Xu, Giovanni Zappella, Bryan Wang | Published: 2024-07-31 | Updated: 2024-08-09 ハルシネーションハルシネーションの検知生成モデル 2024.07.31 2025.04.03 文献データベース
DefAn: Definitive Answer Dataset for LLMs Hallucination Evaluation Authors: A B M Ashikur Rahman, Saeed Anwar, Muhammad Usman, Ajmal Mian | Published: 2024-06-13 ハルシネーションモデル評価学習データの偏り 2024.06.13 2025.04.03 文献データベース
On Large Language Models’ Hallucination with Regard to Known Facts Authors: Che Jiang, Biqing Qi, Xiangyu Hong, Dayuan Fu, Yang Cheng, Fandong Meng, Mo Yu, Bowen Zhou, Jie Zhou | Published: 2024-03-29 | Updated: 2024-10-28 ハルシネーションハルシネーションの検知モデルアーキテクチャ 2024.03.29 2025.04.03 文献データベース
The Dawn After the Dark: An Empirical Study on Factuality Hallucination in Large Language Models Authors: Junyi Li, Jie Chen, Ruiyang Ren, Xiaoxue Cheng, Wayne Xin Zhao, Jian-Yun Nie, Ji-Rong Wen | Published: 2024-01-06 LLMの幻覚ハルシネーションハルシネーションの検知 2024.01.06 2025.04.03 文献データベース
LLM Lies: Hallucinations are not Bugs, but Features as Adversarial Examples Authors: Jia-Yu Yao, Kun-Peng Ning, Zhen-Hui Liu, Mu-Nan Ning, Yu-Yang Liu, Li Yuan | Published: 2023-10-02 | Updated: 2024-08-04 ハルシネーション敵対的サンプルの脆弱性敵対的学習 2023.10.02 2025.04.03 文献データベース
The Reversal Curse: LLMs trained on “A is B” fail to learn “B is A” Authors: Lukas Berglund, Meg Tong, Max Kaufmann, Mikita Balesni, Asa Cooper Stickland, Tomasz Korbak, Owain Evans | Published: 2023-09-21 | Updated: 2024-05-26 ハルシネーションモデル評価学習データの偏り 2023.09.21 2025.04.03 文献データベース
Why Does ChatGPT Fall Short in Providing Truthful Answers? Authors: Shen Zheng, Jie Huang, Kevin Chen-Chuan Chang | Published: 2023-04-20 | Updated: 2023-12-03 ハルシネーション情報抽出音楽ジャンル 2023.04.20 2025.04.03 文献データベース