文献データベース

Error-Correcting Output Codes with Ensemble Diversity for Robust Learning in Neural Networks

Authors: Yang Song, Qiyu Kang, Wee Peng Tay | Published: 2019-11-30 | Updated: 2021-05-07
エラー訂正ニューラルネットワーク
機械学習
深層学習技術

Federated Learning with Autotuned Communication-Efficient Secure Aggregation

Authors: Keith Bonawitz, Fariborz Salehi, Jakub Konečný, Brendan McMahan, Marco Gruteser | Published: 2019-11-30
セキュアな通信チャネル
プライバシー保証
量子分類器

Square Attack: a query-efficient black-box adversarial attack via random search

Authors: Maksym Andriushchenko, Francesco Croce, Nicolas Flammarion, Matthias Hein | Published: 2019-11-29 | Updated: 2020-07-29
モデル評価
敵対的攻撃検出
敵対的訓練

Computer Systems Have 99 Problems, Let’s Not Make Machine Learning Another One

Authors: David Mohaisen, Songqing Chen | Published: 2019-11-28
モデル評価
敵対的サンプル
機械学習アルゴリズム

Free-riders in Federated Learning: Attacks and Defenses

Authors: Jierui Lin, Min Du, Jian Liu | Published: 2019-11-28
FR検出メカニズム
フリーライダー攻撃
異常検出手法

Android Botnet Detection using Convolutional Neural Networks

Authors: Sina Hojjatinia, Sajad Hamzenejadi, Hadis Mohseni | Published: 2019-11-27
ボットネット検出
モデル性能評価
機械学習の応用

Survey of Attacks and Defenses on Edge-Deployed Neural Networks

Authors: Mihailo Isakov, Vijay Gadepally, Karen M. Gettings, Michel A. Kinsy | Published: 2019-11-27
プライバシー保護データマイニング
攻撃タイプ
脆弱性分析

An Adaptive View of Adversarial Robustness from Test-time Smoothing Defense

Authors: Chao Tang, Yifei Fan, Anthony Yezzi | Published: 2019-11-26
ポイズニング
敵対的サンプル
研究方法論

Local Model Poisoning Attacks to Byzantine-Robust Federated Learning

Authors: Minghong Fang, Xiaoyu Cao, Jinyuan Jia, Neil Zhenqiang Gong | Published: 2019-11-26 | Updated: 2021-11-21
ポイズニング
モデル性能評価
攻撃タイプ

Defending Against Adversarial Machine Learning

Authors: Alison Jenkins | Published: 2019-11-26
モデル性能評価
特徴選択手法
統計的分析