MEGEX: Data-Free Model Extraction Attack against Gradient-Based Explainable AI Authors: Takayuki Miura, Satoshi Hasegawa, Toshiki Shibahara | Published: 2021-07-19 メンバーシップ推論モデルの解釈性攻撃手法 2021.07.19 2025.04.03 文献データベース
When and How to Fool Explainable Models (and Humans) with Adversarial Examples Authors: Jon Vadillo, Roberto Santana, Jose A. Lozano | Published: 2021-07-05 | Updated: 2023-07-07 モデルの解釈性敵対的サンプル敵対的攻撃 2021.07.05 2025.04.03 文献データベース
Generating End-to-End Adversarial Examples for Malware Classifiers Using Explainability Authors: Ishai Rosenberg, Shai Meir, Jonathan Berrebi, Ilay Gordon, Guillaume Sicard, Eli David | Published: 2020-09-28 | Updated: 2022-06-01 マルウェア分類モデルの解釈性敵対的サンプル 2020.09.28 2025.04.03 文献データベース
Mixup Inference: Better Exploiting Mixup to Defend Adversarial Attacks Authors: Tianyu Pang, Kun Xu, Jun Zhu | Published: 2019-09-25 | Updated: 2020-02-20 モデルの解釈性敵対的サンプル敵対的攻撃 2019.09.25 2025.04.03 文献データベース
Evaluating Explanation Without Ground Truth in Interpretable Machine Learning Authors: Fan Yang, Mengnan Du, Xia Hu | Published: 2019-07-16 | Updated: 2019-08-15 XAI(説明可能なAI)モデルの解釈性敵対的サンプル 2019.07.16 2025.04.03 文献データベース
Explanations can be manipulated and geometry is to blame Authors: Ann-Kathrin Dombrowski, Maximilian Alber, Christopher J. Anders, Marcel Ackermann, Klaus-Robert Müller, Pan Kessel | Published: 2019-06-19 | Updated: 2019-09-25 モデルの解釈性ロバスト性に関する評価説明可能性に対する攻撃 2019.06.19 2025.04.03 文献データベース