On Calibration of LLM-based Guard Models for Reliable Content Moderation Authors: Hongfu Liu, Hengguan Huang, Hao Wang, Xiangming Gu, Ye Wang | Published: 2024-10-14 LLM性能評価コンテンツモデレーションプロンプトインジェクション 2024.10.14 2025.04.03 文献データベース
Can LLMs be Scammed? A Baseline Measurement Study Authors: Udari Madhushani Sehwag, Kelly Patel, Francesca Mosca, Vineeth Ravi, Jessica Staddon | Published: 2024-10-14 LLM性能評価プロンプトインジェクション評価手法 2024.10.14 2025.04.03 文献データベース
Survival of the Safest: Towards Secure Prompt Optimization through Interleaved Multi-Objective Evolution Authors: Ankita Sinha, Wendi Cui, Kamalika Das, Jiaxin Zhang | Published: 2024-10-12 プロンプトインジェクションマルチオブジェクティブプロンプト最適化 2024.10.12 2025.04.03 文献データベース
Can a large language model be a gaslighter? Authors: Wei Li, Luyao Zhu, Yang Song, Ruixi Lin, Rui Mao, Yang You | Published: 2024-10-11 プロンプトインジェクション安全性アライメント攻撃手法 2024.10.11 2025.04.03 文献データベース
F2A: An Innovative Approach for Prompt Injection by Utilizing Feign Security Detection Agents Authors: Yupeng Ren | Published: 2024-10-11 | Updated: 2024-10-14 プロンプトインジェクション攻撃の評価攻撃手法 2024.10.11 2025.04.03 文献データベース
PILLAR: an AI-Powered Privacy Threat Modeling Tool Authors: Majid Mollaeefar, Andrea Bissoli, Silvio Ranise | Published: 2024-10-11 プライバシー保護プライバシー保護手法プロンプトインジェクション 2024.10.11 2025.04.03 文献データベース
APOLLO: A GPT-based tool to detect phishing emails and generate explanations that warn users Authors: Giuseppe Desolda, Francesco Greco, Luca Viganò | Published: 2024-10-10 フィッシング検出プロンプトインジェクションユーザー教育 2024.10.10 2025.04.03 文献データベース
Instructional Segment Embedding: Improving LLM Safety with Instruction Hierarchy Authors: Tong Wu, Shujian Zhang, Kaiqiang Song, Silei Xu, Sanqiang Zhao, Ravi Agrawal, Sathish Reddy Indurthi, Chong Xiang, Prateek Mittal, Wenxuan Zhou | Published: 2024-10-09 LLM性能評価プロンプトインジェクション 2024.10.09 2025.04.03 文献データベース
Prompt Infection: LLM-to-LLM Prompt Injection within Multi-Agent Systems Authors: Donghyun Lee, Mo Tiwari | Published: 2024-10-09 プロンプトインジェクション攻撃手法防御手法 2024.10.09 2025.04.03 文献データベース
Hallucinating AI Hijacking Attack: Large Language Models and Malicious Code Recommenders Authors: David Noever, Forrest McKee | Published: 2024-10-09 サイバーセキュリティプロンプトインジェクション攻撃手法 2024.10.09 2025.04.03 文献データベース