Using LLMs for Security Advisory Investigations: How Far Are We? Authors: Bayu Fedra Abdullah, Yusuf Sulistyo Nugroho, Brittany Reid, Raula Gaikovina Kula, Kazumasa Shimari, Kenichi Matsumoto | Published: 2025-06-16 アドバイス提供ハルシネーションプロンプトリーキング 2025.06.16 文献データベース
DFIR-Metric: A Benchmark Dataset for Evaluating Large Language Models in Digital Forensics and Incident Response Authors: Bilel Cherif, Tamas Bisztray, Richard A. Dubniczky, Aaesha Aldahmani, Saeed Alshehhi, Norbert Tihanyi | Published: 2025-05-26 ハルシネーションモデル性能評価評価手法 2025.05.26 文献データベース
VADER: A Human-Evaluated Benchmark for Vulnerability Assessment, Detection, Explanation, and Remediation Authors: Ethan TS. Liu, Austin Wang, Spencer Mateega, Carlos Georgescu, Danny Tang | Published: 2025-05-26 ウェブサイト脆弱性ハルシネーション動的脆弱性管理 2025.05.26 文献データベース
Phare: A Safety Probe for Large Language Models Authors: Pierre Le Jeune, Benoît Malézieux, Weixuan Xiao, Matteo Dora | Published: 2025-05-16 | Updated: 2025-05-19 RAGバイアス緩和手法ハルシネーション 2025.05.16 文献データベース
Cost-Effective Hallucination Detection for LLMs Authors: Simon Valentin, Jinmiao Fu, Gianluca Detommaso, Shaoyuan Xu, Giovanni Zappella, Bryan Wang | Published: 2024-07-31 | Updated: 2024-08-09 ハルシネーションハルシネーションの検知生成モデル 2024.07.31 2025.04.03 文献データベース
DefAn: Definitive Answer Dataset for LLMs Hallucination Evaluation Authors: A B M Ashikur Rahman, Saeed Anwar, Muhammad Usman, Ajmal Mian | Published: 2024-06-13 ハルシネーションモデル評価学習データの偏り 2024.06.13 2025.04.03 文献データベース
On Large Language Models’ Hallucination with Regard to Known Facts Authors: Che Jiang, Biqing Qi, Xiangyu Hong, Dayuan Fu, Yang Cheng, Fandong Meng, Mo Yu, Bowen Zhou, Jie Zhou | Published: 2024-03-29 | Updated: 2024-10-28 ハルシネーションハルシネーションの検知モデルアーキテクチャ 2024.03.29 2025.04.03 文献データベース
The Dawn After the Dark: An Empirical Study on Factuality Hallucination in Large Language Models Authors: Junyi Li, Jie Chen, Ruiyang Ren, Xiaoxue Cheng, Wayne Xin Zhao, Jian-Yun Nie, Ji-Rong Wen | Published: 2024-01-06 LLMの幻覚ハルシネーションハルシネーションの検知 2024.01.06 2025.04.03 文献データベース
LLM Lies: Hallucinations are not Bugs, but Features as Adversarial Examples Authors: Jia-Yu Yao, Kun-Peng Ning, Zhen-Hui Liu, Mu-Nan Ning, Yu-Yang Liu, Li Yuan | Published: 2023-10-02 | Updated: 2024-08-04 ハルシネーション敵対的サンプルの脆弱性敵対的学習 2023.10.02 2025.04.03 文献データベース
The Reversal Curse: LLMs trained on “A is B” fail to learn “B is A” Authors: Lukas Berglund, Meg Tong, Max Kaufmann, Mikita Balesni, Asa Cooper Stickland, Tomasz Korbak, Owain Evans | Published: 2023-09-21 | Updated: 2024-05-26 ハルシネーションモデル評価学習データの偏り 2023.09.21 2025.04.03 文献データベース