Injection, Attack and Erasure: Revocable Backdoor Attacks via Machine Unlearning Authors: Baogang Song, Dongdong Zhao, Jianwen Xiang, Qiben Xu, Zizhuo Yu | Published: 2025-10-15 バックドア攻撃モデル保護手法防御メカニズム 2025.10.15 文献データベース
Cryptographic Backdoor for Neural Networks: Boon and Bane Authors: Anh Tu Ngo, Anupam Chattopadhyay, Subhamoy Maitra | Published: 2025-09-25 トリガーの検知バックドア攻撃透かし設計 2025.09.25 文献データベース
Non-omniscient backdoor injection with a single poison sample: Proving the one-poison hypothesis for linear regression and linear classification Authors: Thorsten Peinemann, Paula Arnold, Sebastian Berndt, Thomas Eisenbarth, Esfandiar Mohammadi | Published: 2025-08-07 バックドア攻撃バックドア攻撃手法ポイズニング 2025.08.07 文献データベース
Evasion Attacks Against Bayesian Predictive Models Authors: Pablo G. Arce, Roi Naveiro, David Ríos Insua | Published: 2025-06-11 バックドア攻撃ベイジアン敵対的学習敵対的摂動手法 2025.06.11 文献データベース
Backdoor Cleaning without External Guidance in MLLM Fine-tuning Authors: Xuankun Rong, Wenke Huang, Jian Liang, Jinhe Bi, Xun Xiao, Yiming Li, Bo Du, Mang Ye | Published: 2025-05-22 LLMセキュリティバックドア攻撃 2025.05.22 文献データベース
Finetuning-Activated Backdoors in LLMs Authors: Thibaud Gloaguen, Mark Vero, Robin Staab, Martin Vechev | Published: 2025-05-22 LLMセキュリティバックドア攻撃プロンプトインジェクション 2025.05.22 文献データベース
Analysis of the vulnerability of machine learning regression models to adversarial attacks using data from 5G wireless networks Authors: Leonid Legashev, Artur Zhigalov, Denis Parfenov | Published: 2025-05-01 バックドア攻撃ポイズニング攻撃タイプ 2025.05.01 文献データベース
How to Backdoor the Knowledge Distillation Authors: Chen Wu, Qian Ma, Prasenjit Mitra, Sencun Zhu | Published: 2025-04-30 バックドア攻撃敵対的学習知識蒸留の脆弱性 2025.04.30 文献データベース
Detecting Instruction Fine-tuning Attacks on Language Models using Influence Function Authors: Jiawei Li | Published: 2025-04-12 | Updated: 2025-09-30 バックドア攻撃プロンプトの検証感情分析 2025.04.12 文献データベース
BadToken: Token-level Backdoor Attacks to Multi-modal Large Language Models Authors: Zenghui Yuan, Jiawen Shi, Pan Zhou, Neil Zhenqiang Gong, Lichao Sun | Published: 2025-03-20 バックドア攻撃プロンプトインジェクション大規模言語モデル 2025.03.20 2025.04.03 文献データベース