Superficial Safety Alignment Hypothesis Authors: Jianwei Li, Jung-Eun Kim | Published: 2024-10-07 LLM性能評価安全性アライメント 2024.10.07 2025.04.03 文献データベース
DiDOTS: Knowledge Distillation from Large-Language-Models for Dementia Obfuscation in Transcribed Speech Authors: Dominika Woszczyk, Soteris Demetriou | Published: 2024-10-05 LLM性能評価プライバシー保護 2024.10.05 2025.04.03 文献データベース
A Watermark for Black-Box Language Models Authors: Dara Bahri, John Wieting, Dana Alon, Donald Metzler | Published: 2024-10-02 LLM性能評価ウォーターマーキング透かし評価 2024.10.02 2025.04.03 文献データベース
PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Jailbreak Approach Authors: Zhihao Lin, Wei Ma, Mingyi Zhou, Yanjie Zhao, Haoyu Wang, Yang Liu, Jun Wang, Li Li | Published: 2024-09-21 | Updated: 2024-10-03 LLM性能評価プロンプトインジェクション 2024.09.21 2025.04.03 文献データベース
CLNX: Bridging Code and Natural Language for C/C++ Vulnerability-Contributing Commits Identification Authors: Zeqing Qin, Yiwei Wu, Lansheng Han | Published: 2024-09-11 LLM性能評価プログラム解析プロンプトインジェクション 2024.09.11 2025.04.03 文献データベース
DrLLM: Prompt-Enhanced Distributed Denial-of-Service Resistance Method with Large Language Models Authors: Zhenyu Yin, Shang Liu, Guangyuan Xu | Published: 2024-09-11 | Updated: 2025-01-13 DDoS攻撃検出LLM性能評価プロンプトインジェクション 2024.09.11 2025.04.03 文献データベース
LLM-Enhanced Software Patch Localization Authors: Jinhong Yu, Yi Chen, Di Tang, Xiaozhong Liu, XiaoFeng Wang, Chen Wu, Haixu Tang | Published: 2024-09-10 | Updated: 2024-09-13 LLM性能評価コミット内容理解評価手法 2024.09.10 2025.04.03 文献データベース
Using Large Language Models for Template Detection from Security Event Logs Authors: Risto Vaarandi, Hayretdin Bahsi | Published: 2024-09-08 | Updated: 2025-03-23 LLM性能評価アルゴリズム評価手法 2024.09.08 2025.04.03 文献データベース
RACONTEUR: A Knowledgeable, Insightful, and Portable LLM-Powered Shell Command Explainer Authors: Jiangyi Deng, Xinfeng Li, Yanjiao Chen, Yijie Bai, Haiqin Weng, Yan Liu, Tao Wei, Wenyuan Xu | Published: 2024-09-03 LLM性能評価サイバーセキュリティプロンプトインジェクション 2024.09.03 2025.04.03 文献データベース
The Dark Side of Human Feedback: Poisoning Large Language Models via User Inputs Authors: Bocheng Chen, Hanqing Guo, Guangjing Wang, Yuanda Wang, Qiben Yan | Published: 2024-09-01 LLM性能評価プロンプトインジェクションポイズニング 2024.09.01 2025.04.03 文献データベース