A Comprehensive Overview of Large Language Models (LLMs) for Cyber Defences: Opportunities and Directions Authors: Mohammed Hassanin, Nour Moustafa | Published: 2024-05-23 LLMセキュリティサイバーセキュリティプロンプトインジェクション 2024.05.23 2025.04.03 文献データベース
Learnable Privacy Neurons Localization in Language Models Authors: Ruizhe Chen, Tianxiang Hu, Yang Feng, Zuozhu Liu | Published: 2024-05-16 LLMセキュリティプライバシー保護手法メンバーシップ推論 2024.05.16 2025.04.03 文献データベース
Chain of Attack: a Semantic-Driven Contextual Multi-Turn attacker for LLM Authors: Xikang Yang, Xuehai Tang, Songlin Hu, Jizhong Han | Published: 2024-05-09 LLMセキュリティプロンプトインジェクション攻撃手法 2024.05.09 2025.04.03 文献データベース
Special Characters Attack: Toward Scalable Training Data Extraction From Large Language Models Authors: Yang Bai, Ge Pei, Jindong Gu, Yong Yang, Xingjun Ma | Published: 2024-05-09 | Updated: 2024-05-20 LLMセキュリティウォーターマーキング武器所有権 2024.05.09 2025.04.03 文献データベース
PLLM-CS: Pre-trained Large Language Model (LLM) for Cyber Threat Detection in Satellite Networks Authors: Mohammed Hassanin, Marwa Keshk, Sara Salim, Majid Alsubaie, Dharmendra Sharma | Published: 2024-05-09 LLMセキュリティサイバーセキュリティ異常検出手法 2024.05.09 2025.04.03 文献データベース
LLM Security Guard for Code Authors: Arya Kavian, Mohammad Mehdi Pourhashem Kallehbasti, Sajjad Kazemi, Ehsan Firouzi, Mohammad Ghafari | Published: 2024-05-02 | Updated: 2024-05-03 LLMセキュリティセキュリティ分析プロンプトインジェクション 2024.05.02 2025.04.03 文献データベース
Attacks on Third-Party APIs of Large Language Models Authors: Wanru Zhao, Vidit Khazanchi, Haodi Xing, Xuanli He, Qiongkai Xu, Nicholas Donald Lane | Published: 2024-04-24 LLMセキュリティプロンプトインジェクション攻撃手法 2024.04.24 2025.04.03 文献データベース
Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models Authors: Jiaming He, Wenbo Jiang, Guanyu Hou, Wenshu Fan, Rui Zhang, Hongwei Li | Published: 2024-04-23 | Updated: 2025-01-08 LLMセキュリティバックドア攻撃ポイズニング 2024.04.23 2025.04.03 文献データベース
Protecting Your LLMs with Information Bottleneck Authors: Zichuan Liu, Zefan Wang, Linjie Xu, Jinyu Wang, Lei Song, Tianchun Wang, Chunlin Chen, Wei Cheng, Jiang Bian | Published: 2024-04-22 | Updated: 2024-10-10 LLMセキュリティプロンプトインジェクション倫理的ガイドライン遵守 2024.04.22 2025.04.03 文献データベース
Competition Report: Finding Universal Jailbreak Backdoors in Aligned LLMs Authors: Javier Rando, Francesco Croce, Kryštof Mitka, Stepan Shabalin, Maksym Andriushchenko, Nicolas Flammarion, Florian Tramèr | Published: 2024-04-22 | Updated: 2024-06-06 LLMセキュリティバックドア攻撃プロンプトインジェクション 2024.04.22 2025.04.03 文献データベース