文献データベース

Quantized Approximate Signal Processing (QASP): Towards Homomorphic Encryption for audio

Authors: Tu Duyen Nguyen, Adrien Lesage, Clotilde Cantini, Rachid Riad | Published: 2025-05-15
量子化ニューラルネットワーク
音声データ処理システム
音声認識システム

AutoPentest: Enhancing Vulnerability Management With Autonomous LLM Agents

Authors: Julius Henke | Published: 2025-05-15
LLMセキュリティ
RAG
インダイレクトプロンプトインジェクション

Private Transformer Inference in MLaaS: A Survey

Authors: Yang Li, Xinyu Zhou, Yitong Wang, Liangxin Qian, Jun Zhao | Published: 2025-05-15
暗号化技術
機械学習
計算の整合性

Cutting Through Privacy: A Hyperplane-Based Data Reconstruction Attack in Federated Learning

Authors: Francesco Diana, André Nusser, Chuan Xu, Giovanni Neglia | Published: 2025-05-15
プロンプトリーキング
モデル抽出攻撃
探索的攻撃

One Shot Dominance: Knowledge Poisoning Attack on Retrieval-Augmented Generation Systems

Authors: Zhiyuan Chang, Mingyang Li, Xiaojun Jia, Junjie Wang, Yuekai Huang, Ziyou Jiang, Yang Liu, Qing Wang | Published: 2025-05-15 | Updated: 2025-05-20
RAGへのポイズニング攻撃
ポイズニング
ポイズニング攻撃

Dark LLMs: The Growing Threat of Unaligned AI Models

Authors: Michael Fire, Yitzhak Elbazis, Adi Wasenstein, Lior Rokach | Published: 2025-05-15
LLMの安全機構の解除
プロンプトインジェクション
大規模言語モデル

Analysing Safety Risks in LLMs Fine-Tuned with Pseudo-Malicious Cyber Security Data

Authors: Adel ElZemity, Budi Arief, Shujun Li | Published: 2025-05-15
LLMセキュリティ
プロンプトインジェクション
大規模言語モデル

From Trade-off to Synergy: A Versatile Symbiotic Watermarking Framework for Large Language Models

Authors: Yidan Wang, Yubing Ren, Yanan Cao, Binxing Fang | Published: 2025-05-15
モデルDoS
生成AI向け電子透かし
透かし除去技術

PIG: Privacy Jailbreak Attack on LLMs via Gradient-based Iterative In-Context Optimization

Authors: Yidan Wang, Yanan Cao, Yubing Ren, Fang Fang, Zheng Lin, Binxing Fang | Published: 2025-05-15
LLMの安全機構の解除
プロンプトインジェクション
機械学習のプライバシー保護

Adversarial Suffix Filtering: a Defense Pipeline for LLMs

Authors: David Khachaturov, Robert Mullins | Published: 2025-05-14
プロンプトの検証
倫理基準遵守
攻撃検出手法