AIを安心安全に利活用できる社会の実現を目指して、
AIのためのセキュリティに関する情報を総合的に発信します。

Striving for a society where AI can be utilized safely and securely, we provide comprehensive information on security for AI.

解説記事

AIは“だまし絵”に弱い?敵対的サンプルとその対策:敵対的学習New

AIは私たちの生活のさまざまな場面で使われていますが、実はちょっとした“だまし絵”に引っかかってしまうことがあります。人間には気づきにくいけれど、AIが間違えやすいように細工された“だまし絵”のようなデータを「敵対的サンプル」と呼びます。

AIはだまされることがある?~AIに仕掛けられるワナとその守り方~

今や、AI(人工知能)は私たちの生活のあちこちで使われています。たとえば、スマートフォンの顔認証や自動運転の自動車、オンラインストアでの商品のおすすめ表示などもそうです。でも、そんな便利なAIも「だまされてしまう」ことがあるのをご存じでしょうか?その代表例が、「敵対的サンプル」と呼ばれる仕掛けです。この記事では、その仕組みと守り方を、できるだけわかりやすくご紹介します。

AIの判断根拠がわかる?説明可能なAI

いまやAI(人工知能)は、スマートフォンの顔認証やネットショッピングのおすすめ機能など、私たちの暮らしのさまざまなところで使われています。でも、「どうしてAIはこんな判断をしたの?」と疑問に思うことはありませんか?この記事では、「AIがどのようにその答えを出したのか」を人にもわかりやすく説明できる技術、「説明可能AI(XAI)」について、やさしくご紹介します。

説明可能なAI

AIの判断根拠を理解するための技術である説明可能なAI(XAI)に関する概要や関連研究の動向などについて解説します。XAIは、AIモデルがどのように判断や予測を行ったのか、その根拠や理由を人間が理解できる形で説明できるAI技術や仕組みを指します。本記事を読むことで、XAIの概要や研究の最新動向、課題、今後の方向性について理解を深めることができます。