文献データベース

Diff-CAPTCHA: An Image-based CAPTCHA with Security Enhanced by Denoising Diffusion Model

Authors: Ran Jiang, Sanfeng Zhang, Linfeng Liu, Yanbing Peng | Published: 2023-08-16
セキュリティ保証
攻撃の評価
透かしの耐久性

Robustness Over Time: Understanding Adversarial Examples’ Effectiveness on Longitudinal Versions of Large Language Models

Authors: Yugeng Liu, Tianshuo Cong, Zhengyu Zhao, Michael Backes, Yun Shen, Yang Zhang | Published: 2023-08-15 | Updated: 2024-05-06
プロンプトインジェクション
モデル性能評価
ロバスト性に関する評価

A Review of Adversarial Attacks in Computer Vision

Authors: Yutong Zhang, Yao Li, Yin Li, Zhichang Guo | Published: 2023-08-15
ポイズニング
敵対的攻撃手法
防御手法

DIVAS: An LLM-based End-to-End Framework for SoC Security Analysis and Policy-based Protection

Authors: Sudipta Paria, Aritra Dasgupta, Swarup Bhunia | Published: 2023-08-14
LLMセキュリティ
セキュリティ保証
脆弱性回避手法

FedEdge AI-TC: A Semi-supervised Traffic Classification Method based on Trusted Federated Deep Learning for Mobile Edge Computing

Authors: Pan Wang, Zeyi Li, Mengyi Fu, Zixuan Wang, Ze Zhang, MinYao Liu | Published: 2023-08-14
モデルの解釈性
モデル性能評価
連合学習

S3C2 Summit 2023-06: Government Secure Supply Chain Summit

Authors: William Enck, Yasemin Acar, Michel Cukier, Alexandros Kapravelos, Christian Kästner, Laurie Williams | Published: 2023-08-13
SBOMの実践
サイバーセキュリティ
セキュリティ保証

SoK: Realistic Adversarial Attacks and Defenses for Intelligent Network Intrusion Detection

Authors: João Vitorino, Isabel Praça, Eva Maia | Published: 2023-08-13
バックドア攻撃
敵対的訓練
防御手法

PentestGPT: An LLM-empowered Automatic Penetration Testing Tool

Authors: Gelei Deng, Yi Liu, Víctor Mayoral-Vilches, Peng Liu, Yuekang Li, Yuan Xu, Tianwei Zhang, Yang Liu, Martin Pinzger, Stefan Rass | Published: 2023-08-13 | Updated: 2024-06-02
プロンプトインジェクション
ペネトレーションテスト手法
性能評価

A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural Networks

Authors: Farzad Nikfam, Raffaele Casaburi, Alberto Marchisio, Maurizio Martina, Muhammad Shafique | Published: 2023-08-10 | Updated: 2023-10-12
ウォーターマーキング
モデルの設計や精度
性能評価

You Only Prompt Once: On the Capabilities of Prompt Learning on Large Language Models to Tackle Toxic Content

Authors: Xinlei He, Savvas Zannettou, Yun Shen, Yang Zhang | Published: 2023-08-10
テキストデトキシフィケーション
プロンプトリーキング
出力の有害度の算出