DLAP: A Deep Learning Augmented Large Language Model Prompting Framework for Software Vulnerability Detection Authors: Yanjing Yang, Xin Zhou, Runfeng Mao, Jinwei Xu, Lanxin Yang, Yu Zhangm, Haifeng Shen, He Zhang | Published: 2024-05-02 プロンプトインジェクションプロンプトエンジニアリング脆弱性管理 2024.05.02 2025.04.03 文献データベース
LLM Security Guard for Code Authors: Arya Kavian, Mohammad Mehdi Pourhashem Kallehbasti, Sajjad Kazemi, Ehsan Firouzi, Mohammad Ghafari | Published: 2024-05-02 | Updated: 2024-05-03 LLMセキュリティセキュリティ分析プロンプトインジェクション 2024.05.02 2025.04.03 文献データベース
Unleashing the Power of LLM to Infer State Machine from the Protocol Implementation Authors: Haiyang Wei, Ligeng Chen, Zhengjie Du, Yuhan Wu, Haohui Huang, Yue Liu, Guang Cheng, Fengyuan Xu, Linzhang Wang, Bing Mao | Published: 2024-05-01 | Updated: 2025-03-27 LLM性能評価プロンプトインジェクション状態遷移モデル 2024.05.01 2025.04.03 文献データベース
TuBA: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning Authors: Xuanli He, Jun Wang, Qiongkai Xu, Pasquale Minervini, Pontus Stenetorp, Benjamin I. P. Rubinstein, Trevor Cohn | Published: 2024-04-30 | Updated: 2025-03-17 コンテンツモデレーションバックドア攻撃プロンプトインジェクション 2024.04.30 2025.04.03 文献データベース
Evaluating and Mitigating Linguistic Discrimination in Large Language Models Authors: Guoliang Dong, Haoyu Wang, Jun Sun, Xinyu Wang | Published: 2024-04-29 | Updated: 2024-05-10 LLM性能評価バイアスプロンプトインジェクション 2024.04.29 2025.04.03 文献データベース
Attacks on Third-Party APIs of Large Language Models Authors: Wanru Zhao, Vidit Khazanchi, Haodi Xing, Xuanli He, Qiongkai Xu, Nicholas Donald Lane | Published: 2024-04-24 LLMセキュリティプロンプトインジェクション攻撃手法 2024.04.24 2025.04.03 文献データベース
Act as a Honeytoken Generator! An Investigation into Honeytoken Generation with Large Language Models Authors: Daniel Reti, Norman Becker, Tillmann Angeli, Anasuya Chattopadhyay, Daniel Schneider, Sebastian Vollmer, Hans D. Schotten | Published: 2024-04-24 LLM性能評価ハニーポット技術プロンプトインジェクション 2024.04.24 2025.04.03 文献データベース
zkLLM: Zero Knowledge Proofs for Large Language Models Authors: Haochen Sun, Jason Li, Hongyang Zhang | Published: 2024-04-24 プロンプトインジェクション計算効率透かしの耐久性 2024.04.24 2025.04.03 文献データベース
Protecting Your LLMs with Information Bottleneck Authors: Zichuan Liu, Zefan Wang, Linjie Xu, Jinyu Wang, Lei Song, Tianchun Wang, Chunlin Chen, Wei Cheng, Jiang Bian | Published: 2024-04-22 | Updated: 2024-10-10 LLMセキュリティプロンプトインジェクション倫理的ガイドライン遵守 2024.04.22 2025.04.03 文献データベース
Competition Report: Finding Universal Jailbreak Backdoors in Aligned LLMs Authors: Javier Rando, Francesco Croce, Kryštof Mitka, Stepan Shabalin, Maksym Andriushchenko, Nicolas Flammarion, Florian Tramèr | Published: 2024-04-22 | Updated: 2024-06-06 LLMセキュリティバックドア攻撃プロンプトインジェクション 2024.04.22 2025.04.03 文献データベース