BadGD: A unified data-centric framework to identify gradient descent vulnerabilities Authors: Chi-Hua Wang, Guang Cheng | Published: 2024-05-24 バックドア攻撃ポイズニング 2024.05.24 2025.04.03 文献データベース
A GAN-Based Data Poisoning Attack Against Federated Learning Systems and Its Countermeasure Authors: Wei Sun, Bo Gao, Ke Xiong, Yuwei Wang | Published: 2024-05-19 | Updated: 2024-05-21 バックドア攻撃ポイズニング防御手法 2024.05.19 2025.04.03 文献データベース
Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning Authors: Yujie Zhang, Neil Gong, Michael K. Reiter | Published: 2024-05-10 | Updated: 2024-09-09 バックドア攻撃ポイズニング 2024.05.10 2025.04.03 文献データベース
Unlearning Backdoor Attacks through Gradient-Based Model Pruning Authors: Kealan Dunnett, Reza Arablouei, Dimity Miller, Volkan Dedeoglu, Raja Jurdak | Published: 2024-05-07 バックドア攻撃モデル性能評価 2024.05.07 2025.04.03 文献データベース
TuBA: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning Authors: Xuanli He, Jun Wang, Qiongkai Xu, Pasquale Minervini, Pontus Stenetorp, Benjamin I. P. Rubinstein, Trevor Cohn | Published: 2024-04-30 | Updated: 2025-03-17 コンテンツモデレーションバックドア攻撃プロンプトインジェクション 2024.04.30 2025.04.03 文献データベース
Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models Authors: Jiaming He, Wenbo Jiang, Guanyu Hou, Wenshu Fan, Rui Zhang, Hongwei Li | Published: 2024-04-23 | Updated: 2025-01-08 LLMセキュリティバックドア攻撃ポイズニング 2024.04.23 2025.04.03 文献データベース
Competition Report: Finding Universal Jailbreak Backdoors in Aligned LLMs Authors: Javier Rando, Francesco Croce, Kryštof Mitka, Stepan Shabalin, Maksym Andriushchenko, Nicolas Flammarion, Florian Tramèr | Published: 2024-04-22 | Updated: 2024-06-06 LLMセキュリティバックドア攻撃プロンプトインジェクション 2024.04.22 2025.04.03 文献データベース
Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models Authors: Zhenyang Ni, Rui Ye, Yuxi Wei, Zhen Xiang, Yanfeng Wang, Siheng Chen | Published: 2024-04-19 | Updated: 2024-04-22 バックドア攻撃自動運転技術の脆弱性 2024.04.19 2025.04.03 文献データベース
Exploring Backdoor Vulnerabilities of Chat Models Authors: Yunzhuo Hao, Wenkai Yang, Yankai Lin | Published: 2024-04-03 バックドア攻撃プロンプトインジェクション 2024.04.03 2025.04.03 文献データベース
Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models Authors: Yuxin Wen, Leo Marchyok, Sanghyun Hong, Jonas Geiping, Tom Goldstein, Nicholas Carlini | Published: 2024-04-01 バックドア攻撃ポイズニングメンバーシップ推論 2024.04.01 2025.04.03 文献データベース