AIのセキュリティに関する情報を、基礎から最新の動向まで幅広く解説します。
26 件中 1~9件を表示
本記事では、OWASP Foundationによる「OWASP Top 10 for Agentic Applications 2026 」に記載されている脅威やその対策について最新の研究動向を交えながら解説します。特に、本記事では AIエージェント間の連携に関連する3つの脅威を扱います。
本記事では、OWASP Foundationによる「OWASP Top 10 for Agentic Applications 2026 」に記載されている脅威やその対策について最新の研究動向を交えながら解説します。特に、本記事ではAIエージェントと直接的なインタラクションを行う人間とAIエージェントの意思決定に関連する2つの脅威を扱います。
本記事では、LLMに対するポイズニング攻撃の最新動向について解説します。LLMに対するポイズニング攻撃の特徴や攻撃方法について概観し、その後主要な防御技術の概要や課題、今後の展望について説明します。
AIは私たちの生活のさまざまな場面で使われていますが、実はちょっとした“だまし絵”に引っかかってしまうことがあります。人間には気づきにくいけれど、AIが間違えやすいように細工された“だまし絵”のようなデータを「敵対的サンプル」と呼びます。
今や、AI(人工知能)は私たちの生活のあちこちで使われています。たとえば、スマートフォンの顔認証や自動運転の自動車、オンラインストアでの商品のおすすめ表示などもそうです。でも、そんな便利なAIも「だまされてしまう」ことがあるのをご存じでしょうか?
その代表例が、「敵対的サンプル」と呼ばれる仕掛けです。この記事では、その仕組みと守り方を、できるだけわかりやすくご紹介します。
はじめに いまやAI(人工知能)は、スマートフォンの顔認証やネットショッピングのおすすめ機能など、私たちの暮らしのさまざまなところで使われています。でも、「どうしてAIはこんな判断をしたの?」と疑問に思うことはありません […]
はじめに 本記事では、AIがどのように予測を行ったかを説明する技術である「説明可能AI(XAI)」について解説します。本記事を読むことで、XAIの概要や研究の最新動向、課題、今後の方向性について理解を深めることができます […]
はじめに 本記事は、大規模言語モデル(Large Language Model、LLM)の安全機構について解説します。LLMはChatGPTなどのような生成AIサービスに利用されており、膨大な知識を有していますが、中には […]
はじめに 本記事は、AIに対するポイズニング攻撃の一種であるバックドア攻撃について解説します。特に、あるデータに対してラベルの予測を行う分類モデルに対するバックドア攻撃について整理しています。本記事を読むことで、分類モデ […]