文献データベース

A Hybrid Approach to Privacy-Preserving Federated Learning

Authors: Stacey Truex, Nathalie Baracaldo, Ali Anwar, Thomas Steinke, Heiko Ludwig, Rui Zhang, Yi Zhou | Published: 2018-12-07 | Updated: 2019-08-14
プライバシー保護プロトコル
差分プライバシー
連合学習

Deep-RBF Networks Revisited: Robust Classification with Rejection

Authors: Pourya Habib Zadeh, Reshad Hosseini, Suvrit Sra | Published: 2018-12-07
モデルの頑健性保証
実験的検証
敵対的サンプル

Combatting Adversarial Attacks through Denoising and Dimensionality Reduction: A Cascaded Autoencoder Approach

Authors: Rajeev Sahay, Rehana Mahfuz, Aly El Gamal | Published: 2018-12-07
攻撃手法
敵対的サンプルの検知
防御効果分析

Use Dimensionality Reduction and SVM Methods to Increase the Penetration Rate of Computer Networks

Authors: Amir Moradibaad, Ramin Jalilian Mashhoud | Published: 2018-12-07 | Updated: 2018-12-13
マルウェア検出
研究方法論
選択手法

Three Tools for Practical Differential Privacy

Authors: Koen Lennart van der Veen, Ruben Seggers, Peter Bloem, Giorgio Patrini | Published: 2018-12-07
ハイパーパラメータ最適化
パフォーマンス評価
差分プライバシー

Adversarial Attacks, Regression, and Numerical Stability Regularization

Authors: Andre T. Nguyen, Edward Raff | Published: 2018-12-07
ロバスト回帰
敵対的サンプル
防御効果分析

Privacy Partitioning: Protecting User Data During the Deep Learning Inference Phase

Authors: Jianfeng Chi, Emmanuel Owusu, Xuwang Yin, Tong Yu, William Chan, Patrick Tague, Yuan Tian | Published: 2018-12-07
プライバシー保護フレームワーク
モデルインバージョン
画像をAIにより分析し、個人情報を推測する攻撃

Knockoff Nets: Stealing Functionality of Black-Box Models

Authors: Tribhuvanesh Orekondy, Bernt Schiele, Mario Fritz | Published: 2018-12-06
モデル抽出攻撃
医療画像分析
強化学習

The Limitations of Model Uncertainty in Adversarial Settings

Authors: Kathrin Grosse, David Pfaff, Michael Thomas Smith, Michael Backes | Published: 2018-12-06 | Updated: 2019-11-17
モデルの頑健性保証
ロバスト性評価
敵対的サンプル

Prior Networks for Detection of Adversarial Attacks

Authors: Andrey Malinin, Mark Gales | Published: 2018-12-06
モデル抽出攻撃の検知
ロバスト性評価
敵対的学習