Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks Authors: Hetvi Waghela, Jaydip Sen, Sneha Rakshit | Published: 2024-08-20 ポイズニング敵対的サンプル防御手法 2024.08.20 2025.04.03 文献データベース
LeCov: Multi-level Testing Criteria for Large Language Models Authors: Xuan Xie, Jiayang Song, Yuheng Huang, Da Song, Fuyuan Zhang, Felix Juefei-Xu, Lei Ma | Published: 2024-08-20 LLM性能評価テスト優先順位付けプロンプトインジェクション 2024.08.20 2025.04.03 文献データベース
Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions Authors: Jinxin Liu, Zao Yang | Published: 2024-08-20 | Updated: 2024-09-05 LLM性能評価プライバシー保護手法評価手法 2024.08.20 2025.04.03 文献データベース
Privacy Technologies for Financial Intelligence Authors: Yang Li, Thilina Ranbaduge, Kee Siong Ng | Published: 2024-08-19 プライバシー保護プライバシー保護手法金融インテリジェンス 2024.08.19 2025.04.03 文献データベース
Transferring Backdoors between Large Language Models by Knowledge Distillation Authors: Pengzhou Cheng, Zongru Wu, Tianjie Ju, Wei Du, Zhuosheng Zhang Gongshen Liu | Published: 2024-08-19 LLMセキュリティバックドア攻撃ポイズニング 2024.08.19 2025.04.03 文献データベース
Regularization for Adversarial Robust Learning Authors: Jie Wang, Rui Gao, Yao Xie | Published: 2024-08-19 | Updated: 2024-08-22 アルゴリズムポイズニング正則化 2024.08.19 2025.04.03 文献データベース
Antidote: Post-fine-tuning Safety Alignment for Large Language Models against Harmful Fine-tuning Authors: Tiansheng Huang, Gautam Bhattacharya, Pratik Joshi, Josh Kimball, Ling Liu | Published: 2024-08-18 | Updated: 2024-09-03 LLMセキュリティプロンプトインジェクション安全性アライメント 2024.08.18 2025.04.03 文献データベース
Security Concerns in Quantum Machine Learning as a Service Authors: Satwik Kundu, Swaroop Ghosh | Published: 2024-08-18 サイバーセキュリティデータの隠蔽量子フレームワーク 2024.08.18 2025.04.03 文献データベース
Mitigating Noise Detriment in Differentially Private Federated Learning with Model Pre-training Authors: Huitong Jin, Yipeng Zhou, Laizhong Cui, Quan Z. Sheng | Published: 2024-08-18 ウォーターマーキングプライバシー保護手法モデル性能評価 2024.08.18 2025.04.03 文献データベース
BaThe: Defense against the Jailbreak Attack in Multimodal Large Language Models by Treating Harmful Instruction as Backdoor Trigger Authors: Yulin Chen, Haoran Li, Yirui Zhang, Zihao Zheng, Yangqiu Song, Bryan Hooi | Published: 2024-08-17 | Updated: 2025-01-10 AIコンプライアンスLLMセキュリティコンテンツモデレーション 2024.08.17 2025.04.03 文献データベース