AIセキュリティポータル
  • Articles
  • Literature Database
  • AIセキュリティマップ
  • 関連リソース
    • 関連ニュース
    • リンク集
  • About Us

毒性攻撃に特化した内容

Transferring Robustness for Graph Neural Network Against Poisoning Attacks

Authors: Xianfeng Tang, Yandong Li, Yiwei Sun, Huaxiu Yao, Prasenjit Mitra, Suhang Wang | Published: 2019-08-20 | Updated: 2020-02-26
ポイズニング
堅牢性向上手法
毒性攻撃に特化した内容
2019.08.20 2025.05.13
Literature Database

Model Agnostic Defence against Backdoor Attacks in Machine Learning

Authors: Sakshi Udeshi, Shanshan Peng, Gerald Woo, Lionell Loh, Louth Rawshan, Sudipta Chattopadhyay | Published: 2019-08-06 | Updated: 2022-03-31
バックドア攻撃
攻撃の評価
毒性攻撃に特化した内容
2019.08.06 2025.05.13
Literature Database

Is feature selection secure against training data poisoning?

Authors: Huang Xiao, Battista Biggio, Gavin Brown, Giorgio Fumera, Claudia Eckert, Fabio Roli | Published: 2018-04-21
ポイズニング
毒データの検知
毒性攻撃に特化した内容
2018.04.21 2025.05.13
Literature Database
Previous 1 2
AIセキュリティポータル
  • Terms of Use
  • Privacy Policy
  • Follow us
Copyright© KDDI Research, Inc. All Rights Reserved.
    • Articles
    • Literature Database
    • AIセキュリティマップ
    • 関連リソース
      • 関連ニュース
      • リンク集
    • About Us
  • AIセキュリティポータル