Robust LLM safeguarding via refusal feature adversarial training Authors: Lei Yu, Virginie Do, Karen Hambardzumyan, Nicola Cancedda | Published: 2024-09-30 | Updated: 2025-03-20 プロンプトインジェクションモデルの堅牢性敵対的学習 2024.09.30 2025.04.03 文献データベース
The Early Bird Catches the Leak: Unveiling Timing Side Channels in LLM Serving Systems Authors: Linke Song, Zixuan Pang, Wenhao Wang, Zihao Wang, XiaoFeng Wang, Hongbo Chen, Wei Song, Yier Jin, Dan Meng, Rui Hou | Published: 2024-09-30 | Updated: 2025-08-13 セキュリティ保証プロンプトリーキング攻撃戦略分析 2024.09.30 文献データベース
Infighting in the Dark: Multi-Label Backdoor Attack in Federated Learning Authors: Ye Li, Yanchao Zhao, Chengcheng Zhu, Jiale Zhang | Published: 2024-09-29 | Updated: 2025-03-22 IDマッピングの構築バックドアモデルの検知敵対的攻撃 2024.09.29 2025.04.03 文献データベース
OnePath: Efficient and Privacy-Preserving Decision Tree Inference in the Cloud Authors: Shuai Yuan, Hongwei Li, Xinyuan Qian, Guowen Xu | Published: 2024-09-28 | Updated: 2025-07-21 プライバシーと最適化性能評価手法暗号化手法 2024.09.28 文献データベース
Confidential Prompting: Privacy-preserving LLM Inference on Cloud Authors: Caihua Li, In Gim, Lin Zhong | Published: 2024-09-27 | Updated: 2025-08-25 プロセス分割手法プロンプトリーキングモデル抽出攻撃 2024.09.27 文献データベース
Enhancing Robustness of Graph Neural Networks through p-Laplacian Authors: Anuj Kumar Sirohi, Subhanu Halder, Kabir Kumar, Sandeep Kumar | Published: 2024-09-27 最適化問題防御手法 2024.09.27 2025.04.03 文献データベース
System-Level Defense against Indirect Prompt Injection Attacks: An Information Flow Control Perspective Authors: Fangzhou Wu, Ethan Cecchetti, Chaowei Xiao | Published: 2024-09-27 | Updated: 2024-10-10 LLMセキュリティプロンプトインジェクション実行トレースの妨害 2024.09.27 2025.04.03 文献データベース
Evading Toxicity Detection with ASCII-art: A Benchmark of Spatial Attacks on Moderation Systems Authors: Sergey Berezin, Reza Farahbakhsh, Noel Crespi | Published: 2024-09-27 | Updated: 2025-09-24 トークン圧縮フレームワークプロンプトリーキング自然言語処理 2024.09.27 文献データベース
Code Vulnerability Repair with Large Language Model using Context-Aware Prompt Tuning Authors: Arshiya Khan, Guannan Liu, Xing Gao | Published: 2024-09-27 | Updated: 2025-06-11 コード脆弱性修復セキュリティコンテキスト統合大規模言語モデル 2024.09.27 文献データベース
An Adversarial Perspective on Machine Unlearning for AI Safety Authors: Jakub Łucki, Boyi Wei, Yangsibo Huang, Peter Henderson, Florian Tramèr, Javier Rando | Published: 2024-09-26 | Updated: 2025-04-10 プロンプトインジェクション安全性アライメント機械学習の忘却 2024.09.26 文献データベース