文献データベース

文献データベースでは、AIセキュリティに関する文献情報を分類・集約しています。詳しくは文献データベースについてをご覧ください。統計情報のページでは、収集された文献に関する統計情報を公開しています。
The Literature Database categorizes and aggregates literature related to AI security. For more details, please see About Literature Database. We provide statistical information regarding the Literature Database on the Statistics page.

Lambda-randomization: multi-dimensional randomized response made easy

Authors: Nicolas Ruiz | Published: 2026-03-05
データプライバシー管理
データ依存性
差分プライバシー

Good-Enough LLM Obfuscation (GELO)

Authors: Anatoly Belikov, Ilya Fedotov | Published: 2026-03-05
LLM性能評価
データプライバシー管理

Efficient Privacy-Preserving Sparse Matrix-Vector Multiplication Using Homomorphic Encryption

Authors: Yang Gao, Gang Quan, Wujie Wen, Scott Piersall, Qian Lou, Liqiang Wang | Published: 2026-03-05
スパースモデル
セキュアアグリゲーション
データ依存性

Robustness of Agentic AI Systems via Adversarially-Aligned Jacobian Regularization

Authors: Furkan Mumcu, Yasin Yilmaz | Published: 2026-03-04
アライメント
ロバスト最適化
最適化手法

PTOPOFL: Privacy-Preserving Personalised Federated Learning via Persistent Homology

Authors: Kelly L Vomo-Donfack, Adryel Hoszu, Grégory Ginot, Ian Morilla | Published: 2026-03-04
セキュアアグリゲーション
プライバシー設計原則
連合学習

CAM-LDS: Cyber Attack Manifestations for Automatic Interpretation of System Logs and Security Alerts

Authors: Max Landauer, Wolfgang Hotwagner, Thorina Boenke, Florian Skopik, Markus Wurzenberger | Published: 2026-03-04
プロンプトインジェクション
マルウェア分類
攻撃手法

A Multi-Dimensional Quality Scoring Framework for Decentralized LLM Inference with Proof of Quality

Authors: Arther Tian, Alex Ding, Frank Chen, Simon Wu, Aaron Chan | Published: 2026-03-04
LLM性能評価
アライメント
評価指標

When Safety Becomes a Vulnerability: Exploiting LLM Alignment Homogeneity for Transferable Blocking in RAG

Authors: Junchen Li, Chao Qi, Rongzheng Wang, Qizhi Chen, Liang Xu, Di Liang, Bob Simons, Shuang Liang | Published: 2026-03-04
LLM性能評価
RAG
RAGへのポイズニング攻撃

Measuring Privacy vs. Fidelity in Synthetic Social Media Datasets

Authors: Henry Tari, Adriana Iamnitchi | Published: 2026-03-04
LLM性能評価
データプライバシー管理
プロンプトリーキング

Image-based Prompt Injection: Hijacking Multimodal LLMs through Visually Embedded Adversarial Instructions

Authors: Neha Nagaraja, Lan Zhang, Zhilong Wang, Bo Zhang, Pawan Patil | Published: 2026-03-04
インダイレクトプロンプトインジェクション
プロンプト埋め込み手法
視覚的手法