Feature Averaging: An Implicit Bias of Gradient Descent Leading to Non-Robustness in Neural Networks Authors: Binghui Li, Zhixuan Pan, Kaifeng Lyu, Jian Li | Published: 2024-10-14 収束分析敵対的サンプル 2024.10.14 2025.04.03 文献データベース
Yuan: Research on the Concept of Digital World Analogue Scientific Infrastructure and Science Popularization Communication Based on Suzhou Gardens Pattern Authors: Zhang Lvyang, Lu Wen, Zhao Yang, Li Jiaqi, Zhai Lidong | Published: 2024-10-14 サイバーセキュリティ 2024.10.14 2025.04.03 文献データベース
Can LLMs be Scammed? A Baseline Measurement Study Authors: Udari Madhushani Sehwag, Kelly Patel, Francesca Mosca, Vineeth Ravi, Jessica Staddon | Published: 2024-10-14 LLM性能評価プロンプトインジェクション評価手法 2024.10.14 2025.04.03 文献データベース
Evaluating of Machine Unlearning: Robustness Verification Without Prior Modifications Authors: Heng Xu, Tianqing Zhu, Wanlei Zhou | Published: 2024-10-14 損失項最適化問題 2024.10.14 2025.04.03 文献データベース
Survival of the Safest: Towards Secure Prompt Optimization through Interleaved Multi-Objective Evolution Authors: Ankita Sinha, Wendi Cui, Kamalika Das, Jiaxin Zhang | Published: 2024-10-12 プロンプトインジェクションマルチオブジェクティブプロンプト最適化 2024.10.12 2025.04.03 文献データベース
Minimax rates of convergence for nonparametric regression under adversarial attacks Authors: Jingfu Peng, Yuhong Yang | Published: 2024-10-12 敵対的サンプル敵対的訓練 2024.10.12 2025.04.03 文献データベース
Can a large language model be a gaslighter? Authors: Wei Li, Luyao Zhu, Yang Song, Ruixi Lin, Rui Mao, Yang You | Published: 2024-10-11 プロンプトインジェクション安全性アライメント攻撃手法 2024.10.11 2025.04.03 文献データベース
Federated Learning in Practice: Reflections and Projections Authors: Katharine Daly, Hubert Eichner, Peter Kairouz, H. Brendan McMahan, Daniel Ramage, Zheng Xu | Published: 2024-10-11 プライバシー保護プライバシー保護手法ポイズニング 2024.10.11 2025.04.03 文献データベース
Decoding Secret Memorization in Code LLMs Through Token-Level Characterization Authors: Yuqing Nie, Chong Wang, Kailong Wang, Guoai Xu, Guosheng Xu, Haoyu Wang | Published: 2024-10-11 LLM性能評価プライバシー保護 2024.10.11 2025.04.03 文献データベース
PoisonBench: Assessing Large Language Model Vulnerability to Data Poisoning Authors: Tingchen Fu, Mrinank Sharma, Philip Torr, Shay B. Cohen, David Krueger, Fazl Barez | Published: 2024-10-11 LLM性能評価バックドア攻撃ポイズニング 2024.10.11 2025.04.03 文献データベース