バックドア攻撃

Poisoning Programs by Un-Repairing Code: Security Concerns of AI-generated Code

Authors: Cristina Improta | Published: 2024-03-11
セキュリティ分析
バックドア攻撃
ポイズニング

Fake or Compromised? Making Sense of Malicious Clients in Federated Learning

Authors: Hamid Mozaffari, Sunav Choudhary, Amir Houmansadr | Published: 2024-03-10
バックドア攻撃
ポイズニング
悪意のあるクライアント

On Protecting the Data Privacy of Large Language Models (LLMs): A Survey

Authors: Biwei Yan, Kun Li, Minghui Xu, Yueyan Dong, Yue Zhang, Zhaochun Ren, Xiuzhen Cheng | Published: 2024-03-08 | Updated: 2024-03-14
バックドア攻撃
プライバシー保護手法
プロンプトインジェクション

Mitigating Label Flipping Attacks in Malicious URL Detectors Using Ensemble Trees

Authors: Ehsan Nowroozi, Nada Jadalla, Samaneh Ghelichkhani, Alireza Jolfaei | Published: 2024-03-05
バックドア攻撃
ポイズニング
防御手法

Federated Learning Under Attack: Exposing Vulnerabilities through Data Poisoning Attacks in Computer Networks

Authors: Ehsan Nowroozi, Imran Haider, Rahim Taheri, Mauro Conti | Published: 2024-03-05
バックドア攻撃
ポイズニング
連合学習

Teach LLMs to Phish: Stealing Private Information from Language Models

Authors: Ashwinee Panda, Christopher A. Choquette-Choo, Zhengming Zhang, Yaoqing Yang, Prateek Mittal | Published: 2024-03-01
バックドア攻撃
フィッシング検出
プロンプトインジェクション

Learning to Poison Large Language Models for Downstream Manipulation

Authors: Xiangyu Zhou, Yao Qiang, Saleh Zare Zade, Mohammad Amin Roshani, Prashant Khanduri, Douglas Zytko, Dongxiao Zhu | Published: 2024-02-21 | Updated: 2025-05-29
LLMセキュリティ
バックドア攻撃
ポイズニング攻撃

Indiscriminate Data Poisoning Attacks on Pre-trained Feature Extractors

Authors: Yiwei Lu, Matthew Y. R. Yang, Gautam Kamath, Yaoliang Yu | Published: 2024-02-20
バックドア攻撃
ポイズニング
転移学習

Test-Time Backdoor Attacks on Multimodal Large Language Models

Authors: Dong Lu, Tianyu Pang, Chao Du, Qian Liu, Xianjun Yang, Min Lin | Published: 2024-02-13
バックドア攻撃
モデル性能評価
攻撃手法

Game-Theoretic Unlearnable Example Generator

Authors: Shuang Liu, Yihan Wang, Xiao-Shan Gao | Published: 2024-01-31
ウォーターマーキング
バックドア攻撃
ポイズニング