BadToken: Token-level Backdoor Attacks to Multi-modal Large Language Models Authors: Zenghui Yuan, Jiawen Shi, Pan Zhou, Neil Zhenqiang Gong, Lichao Sun | Published: 2025-03-20 バックドア攻撃プロンプトインジェクション大規模言語モデル 2025.03.20 2025.04.03 文献データベース
Trust Under Siege: Label Spoofing Attacks against Machine Learning for Android Malware Detection Authors: Tianwei Lan, Luca Demetrio, Farid Nait-Abdesselam, Yufei Han, Simone Aonzo | Published: 2025-03-14 バックドア攻撃ラベル攻撃手法 2025.03.14 2025.04.03 文献データベース
ToxicSQL: Migrating SQL Injection Threats into Text-to-SQL Models via Backdoor Attack Authors: Meiyu Lin, Haichuan Zhang, Jiale Lao, Renyuan Li, Yuanchun Zhou, Carl Yang, Yang Cao, Mingjie Tang | Published: 2025-03-07 | Updated: 2025-04-03 バックドアモデルの検知バックドア攻撃モデル性能評価 2025.03.07 文献データベース
Provably effective detection of effective data poisoning attacks Authors: Jonathan Gallagher, Yasaman Esfandiari, Callen MacPhee, Michael Warren | Published: 2025-01-21 バックドア攻撃ポイズニング実験的検証 2025.01.21 2025.04.03 文献データベース
BADTV: Unveiling Backdoor Threats in Third-Party Task Vectors Authors: Chia-Yi Hsu, Yu-Lin Tsai, Yu Zhe, Yan-Lun Chen, Chih-Hsun Lin, Chia-Mu Yu, Yang Zhang, Chun-Ying Huang, Jun Sakuma | Published: 2025-01-04 バックドア攻撃防御手法 2025.01.04 2025.04.03 文献データベース
Mingling with the Good to Backdoor Federated Learning Authors: Nuno Neves | Published: 2025-01-03 バックドア攻撃ポイズニング 2025.01.03 2025.04.03 文献データベース
HoneypotNet: Backdoor Attacks Against Model Extraction Authors: Yixu Wang, Tianle Gu, Yan Teng, Yingchun Wang, Xingjun Ma | Published: 2025-01-02 バックドア攻撃モデル抽出攻撃 2025.01.02 2025.04.03 文献データベース
CL-Attack: Textual Backdoor Attacks via Cross-Lingual Triggers Authors: Jingyi Zheng, Tianyi Hu, Tianshuo Cong, Xinlei He | Published: 2024-12-26 | Updated: 2025-03-31 LLMセキュリティバックドア攻撃敵対的サンプルの脆弱性 2024.12.26 2025.04.03 文献データベース
A Backdoor Attack Scheme with Invisible Triggers Based on Model Architecture Modification Authors: Yuan Ma, Xu Ma, Jiankang Wei, Jinmeng Tang, Xiaoyu Zhang, Yilun Lyu, Kehao Chen, Jingtong Huang | Published: 2024-12-22 | Updated: 2025-01-06 バックドア攻撃ポイズニング 2024.12.22 2025.04.03 文献データベース
PoisonBench: Assessing Large Language Model Vulnerability to Data Poisoning Authors: Tingchen Fu, Mrinank Sharma, Philip Torr, Shay B. Cohen, David Krueger, Fazl Barez | Published: 2024-10-11 LLM性能評価バックドア攻撃ポイズニング 2024.10.11 2025.04.03 文献データベース