AIセキュリティポータルbot

Adaptive Plan-Execute Framework for Smart Contract Security Auditing

Authors: Zhiyuan Wei, Jing Sun, Zijian Zhang, Zhe Hou, Zixiao Zhao | Published: 2025-05-21
RAG
プロンプトリーキング
動的分析

A Linear Approach to Data Poisoning

Authors: Diego Granziol, Donald Flynn | Published: 2025-05-21
ポイズニング
動的分析
統計的分析

A Survey On Secure Machine Learning

Authors: Taobo Liao, Taoran Li, Prathamesh Nadkarni | Published: 2025-05-21
プライバシー評価
メンバーシップ推論
暗号化スキームの詳細

TSA-WF: Exploring the Effectiveness of Time Series Analysis for Website Fingerprinting

Authors: Michael Wrana, Uzma Maroof, Diogo Barradas | Published: 2025-05-20
ウェブサイトトレースの可視化
効率評価
防御効果分析

sudoLLM : On Multi-role Alignment of Language Models

Authors: Soumadeep Saha, Akshay Chaturvedi, Joy Mahapatra, Utpal Garain | Published: 2025-05-20
アライメント
プロンプトインジェクション
大規模言語モデル

Can Large Language Models Really Recognize Your Name?

Authors: Dzung Pham, Peter Kairouz, Niloofar Mireshghallah, Eugene Bagdasarian, Chau Minh Pham, Amir Houmansadr | Published: 2025-05-20
LLMセキュリティ
インダイレクトプロンプトインジェクション
プライバシー漏洩

Is Your Prompt Safe? Investigating Prompt Injection Attacks Against Open-Source LLMs

Authors: Jiawen Wang, Pritha Gupta, Ivan Habernal, Eyke Hüllermeier | Published: 2025-05-20
LLMセキュリティ
LLMの安全機構の解除
プロンプトインジェクション

Exploring Jailbreak Attacks on LLMs through Intent Concealment and Diversion

Authors: Tiehan Cui, Yanxu Mao, Peipei Liu, Congying Liu, Datao You | Published: 2025-05-20
LLMセキュリティ
LLMの安全機構の解除
プロンプトインジェクション

Adversarially Pretrained Transformers may be Universally Robust In-Context Learners

Authors: Soichiro Kumano, Hiroshi Kera, Toshihiko Yamasaki | Published: 2025-05-20
モデルの頑健性保証
ロバスト性とプライバシーの関係
敵対的学習

PandaGuard: Systematic Evaluation of LLM Safety in the Era of Jailbreaking Attacks

Authors: Guobin Shen, Dongcheng Zhao, Linghao Feng, Xiang He, Jihang Wang, Sicheng Shen, Haibo Tong, Yiting Dong, Jindong Li, Xiang Zheng, Yi Zeng | Published: 2025-05-20
LLMの安全機構の解除
プロンプトインジェクション
防御手法の効果分析