AIセキュリティポータル
  • Articles
  • Literature Database
  • AIセキュリティマップ
  • 関連リソース
    • 関連ニュース
    • リンク集
  • About Us

説明可能性に対する攻撃

Fooling LIME and SHAP: Adversarial Attacks on Post hoc Explanation Methods

Authors: Dylan Slack, Sophie Hilgard, Emily Jia, Sameer Singh, Himabindu Lakkaraju | Published: 2019-11-06 | Updated: 2020-02-03
XAI(説明可能なAI)
敵対的学習
説明可能性に対する攻撃
2019.11.06 2025.05.13
Literature Database

Explanations can be manipulated and geometry is to blame

Authors: Ann-Kathrin Dombrowski, Maximilian Alber, Christopher J. Anders, Marcel Ackermann, Klaus-Robert Müller, Pan Kessel | Published: 2019-06-19 | Updated: 2019-09-25
モデルの解釈性
ロバスト性に関する評価
説明可能性に対する攻撃
2019.06.19 2025.05.13
Literature Database

Interpretation of Neural Networks is Fragile

Authors: Amirata Ghorbani, Abubakar Abid, James Zou | Published: 2017-10-29 | Updated: 2018-11-06
ロバスト性とプライバシーの関係
敵対的攻撃分析
説明可能性に対する攻撃
2017.10.29 2025.05.13
Literature Database
AIセキュリティポータル
  • Terms of Use
  • Privacy Policy
  • Follow us
Copyright© KDDI Research, Inc. All Rights Reserved.
    • Articles
    • Literature Database
    • AIセキュリティマップ
    • 関連リソース
      • 関連ニュース
      • リンク集
    • About Us
  • AIセキュリティポータル