AIセキュリティポータルbot

Exploring Backdoor Attack and Defense for LLM-empowered Recommendations

Authors: Liangbo Ning, Wenqi Fan, Qing Li | Published: 2025-04-15
LLM性能評価
RAGへのポイズニング攻撃
敵対的攻撃分析

Bypassing Prompt Injection and Jailbreak Detection in LLM Guardrails

Authors: William Hackett, Lewis Birch, Stefan Trawicki, Neeraj Suri, Peter Garraghan | Published: 2025-04-15
LLM性能評価
プロンプトインジェクション
敵対的攻撃分析

Benchmarking Practices in LLM-driven Offensive Security: Testbeds, Metrics, and Experiment Design

Authors: Andreas Happe, Jürgen Cito | Published: 2025-04-14
テストベッド
プロンプトの検証
進捗追跡

Do We Really Need Curated Malicious Data for Safety Alignment in Multi-modal Large Language Models?

Authors: Yanbo Wang, Jiyang Guan, Jian Liang, Ran He | Published: 2025-04-14
プロンプトインジェクション
学習データの偏り
安全性アライメント

StruPhantom: Evolutionary Injection Attacks on Black-Box Tabular Agents Powered by Large Language Models

Authors: Yang Feng, Xudong Pan | Published: 2025-04-14
LLM性能評価
インダイレクトプロンプトインジェクション
悪意のあるウェブサイト検出

An Investigation of Large Language Models and Their Vulnerabilities in Spam Detection

Authors: Qiyao Tang, Xiangyang Li | Published: 2025-04-14
LLM性能評価
プロンプトインジェクション
モデルDoS

ControlNET: A Firewall for RAG-based LLM System

Authors: Hongwei Yao, Haoran Shi, Yidou Chen, Yixin Jiang, Cong Wang, Zhan Qin | Published: 2025-04-13 | Updated: 2025-04-17
RAGへのポイズニング攻撃
インダイレクトプロンプトインジェクション
データ侵害リスク

PR-Attack: Coordinated Prompt-RAG Attacks on Retrieval-Augmented Generation in Large Language Models via Bilevel Optimization

Authors: Yang Jiao, Xiaodong Wang, Kai Yang | Published: 2025-04-10
LLM性能評価
RAGへのポイズニング攻撃
敵対的攻撃評価

LLM-IFT: LLM-Powered Information Flow Tracking for Secure Hardware

Authors: Nowfel Mashnoor, Mohammad Akyash, Hadi Kamali, Kimia Azar | Published: 2025-04-09
LLMの安全機構の解除
フレームワーク
効率的な構成検証

Large-Scale (Semi-)Automated Security Assessment of Consumer IoT Devices — A Roadmap

Authors: Pascal Schöttle, Matthias Janetschek, Florian Merkle, Martin Nocker, Christoph Egger | Published: 2025-04-09
IoTセキュリティフレームワーク
セキュリティテスト
通信システム