Obfuscated Malware Detection: Investigating Real-world Scenarios through Memory Analysis Authors: S M Rakib Hasan, Aakar Dhakal | Published: 2024-04-03 サイバーセキュリティプロンプトインジェクションマルウェア分類 2024.04.03 2025.04.03 文献データベース
Jailbreaking Leading Safety-Aligned LLMs with Simple Adaptive Attacks Authors: Maksym Andriushchenko, Francesco Croce, Nicolas Flammarion | Published: 2024-04-02 | Updated: 2024-10-07 LLMセキュリティプロンプトインジェクション攻撃手法 2024.04.02 2025.04.03 文献データベース
Digital Forgetting in Large Language Models: A Survey of Unlearning Methods Authors: Alberto Blanco-Justicia, Najeeb Jebreel, Benet Manzanares, David Sánchez, Josep Domingo-Ferrer, Guillem Collell, Kuan Eeik Tan | Published: 2024-04-02 LLM性能評価プロンプトインジェクション機械学習の忘却 2024.04.02 2025.04.03 文献データベース
What is in Your Safe Data? Identifying Benign Data that Breaks Safety Authors: Luxi He, Mengzhou Xia, Peter Henderson | Published: 2024-04-01 | Updated: 2024-08-20 データ選択戦略プロンプトインジェクション心理的操作 2024.04.01 2025.04.03 文献データベース
To Err is Machine: Vulnerability Detection Challenges LLM Reasoning Authors: Benjamin Steenhoek, Md Mahbubur Rahman, Monoshi Kumar Roy, Mirza Sanjida Alam, Hengbo Tong, Swarna Das, Earl T. Barr, Wei Le | Published: 2024-03-25 | Updated: 2025-01-07 DoS対策LLMセキュリティプロンプトインジェクション 2024.03.25 2025.04.03 文献データベース
Defending Against Indirect Prompt Injection Attacks With Spotlighting Authors: Keegan Hines, Gary Lopez, Matthew Hall, Federico Zarfati, Yonatan Zunger, Emre Kiciman | Published: 2024-03-20 インダイレクトプロンプトインジェクションプロンプトインジェクション悪意のあるプロンプト 2024.03.20 2025.04.03 文献データベース
Leveraging Large Language Models to Detect npm Malicious Packages Authors: Nusrat Zahan, Philipp Burckhardt, Mikola Lysenko, Feross Aboukhadijeh, Laurie Williams | Published: 2024-03-18 | Updated: 2025-01-06 LLM性能評価プロンプトインジェクションマルウェア分類 2024.03.18 2025.04.03 文献データベース
Helpful or Harmful? Exploring the Efficacy of Large Language Models for Online Grooming Prevention Authors: Ellie Prosser, Matthew Edwards | Published: 2024-03-14 LLM性能評価オンライン安全性アドバイスプロンプトインジェクション 2024.03.14 2025.04.03 文献データベース
AdaShield: Safeguarding Multimodal Large Language Models from Structure-based Attack via Adaptive Shield Prompting Authors: Yu Wang, Xiaogeng Liu, Yu Li, Muhao Chen, Chaowei Xiao | Published: 2024-03-14 プロンプトインジェクション構造的攻撃防御手法 2024.03.14 2025.04.03 文献データベース
CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion Authors: Qibing Ren, Chang Gao, Jing Shao, Junchi Yan, Xin Tan, Wai Lam, Lizhuang Ma | Published: 2024-03-12 | Updated: 2024-09-14 LLMセキュリティコード生成プロンプトインジェクション 2024.03.12 2025.04.03 文献データベース