AIセキュリティポータル
  • Articles
  • Literature Database
  • AIセキュリティマップ
  • 関連リソース
    • 関連ニュース
    • リンク集
  • About Us

ロバスト性の要件

Convergence of Adversarial Training in Overparametrized Neural Networks

Authors: Ruiqi Gao, Tianle Cai, Haochuan Li, Liwei Wang, Cho-Jui Hsieh, Jason D. Lee | Published: 2019-06-19 | Updated: 2019-11-09
ロバスト性の要件
敵対的サンプル
深層学習手法
2019.06.19 2025.05.13
Literature Database

Logit Pairing Methods Can Fool Gradient-Based Attacks

Authors: Marius Mosbach, Maksym Andriushchenko, Thomas Trost, Matthias Hein, Dietrich Klakow | Published: 2018-10-29 | Updated: 2019-03-12
ロバスト性の要件
敵対的学習
敵対的訓練
2018.10.29 2025.05.13
Literature Database

Rademacher Complexity for Adversarially Robust Generalization

Authors: Dong Yin, Kannan Ramchandran, Peter Bartlett | Published: 2018-10-29 | Updated: 2020-07-29
モデルの頑健性保証
ロバスト性の要件
敵対的訓練
2018.10.29 2025.05.13
Literature Database

Foolbox: A Python toolbox to benchmark the robustness of machine learning models

Authors: Jonas Rauber, Wieland Brendel, Matthias Bethge | Published: 2017-07-13 | Updated: 2018-03-20
フレームワークサポート
モデルの頑健性保証
ロバスト性の要件
2017.07.13 2025.05.13
Literature Database
AIセキュリティポータル
  • Terms of Use
  • Privacy Policy
  • Follow us
Copyright© KDDI Research, Inc. All Rights Reserved.
    • Articles
    • Literature Database
    • AIセキュリティマップ
    • 関連リソース
      • 関連ニュース
      • リンク集
    • About Us
  • AIセキュリティポータル