AIはだまされることがある?~AIに仕掛けられるワナとその守り方~ 今や、AI(人工知能)は私たちの生活のあちこちで使われています。たとえば、スマートフォンの顔認証や自動運転の自動車、オンラインストアでの商品のおすすめ表示などもそうです。でも、そんな便利なAIも「だまされてしまう」ことがあるのをご存じでしょうか?その代表例が、「敵対的サンプル」と呼ばれる仕掛けです。この記事では、その仕組みと守り方を、できるだけわかりやすくご紹介します。 2025.09.03 一般読者向け解説記事
AIの判断根拠がわかる?説明可能なAI いまやAI(人工知能)は、スマートフォンの顔認証やネットショッピングのおすすめ機能など、私たちの暮らしのさまざまなところで使われています。でも、「どうしてAIはこんな判断をしたの?」と疑問に思うことはありませんか?この記事では、「AIがどのようにその答えを出したのか」を人にもわかりやすく説明できる技術、「説明可能AI(XAI)」について、やさしくご紹介します。 2025.08.20 一般読者向け解説記事
説明可能なAI AIの判断根拠を理解するための技術である説明可能なAI(XAI)に関する概要や関連研究の動向などについて解説します。XAIは、AIモデルがどのように判断や予測を行ったのか、その根拠や理由を人間が理解できる形で説明できるAI技術や仕組みを指します。本記事を読むことで、XAIの概要や研究の最新動向、課題、今後の方向性について理解を深めることができます。 2025.07.02 専門家向け解説記事
LLMによる有害な応答を防ぐ、安全機構 LLMが有害な応答をしないようにするための安全機構について解説します。本記事を読むことで、安全機構の仕組みについて理解を深めることができます。 2025.06.18 一般読者向け解説記事
あなたは騙されない?ディープフェイクがもたらす偽情報とその対策 AI技術を利用して、実在する人物の顔や音声を模倣して偽コンテンツなどを作成する技術であるディープフェイクやその対策について解説します。 2025.05.21 一般読者向け解説記事
敵対的サンプルから守る、敵対的学習 敵対的サンプルに対する対策技術の1つに、敵対的学習があります。本記事では、敵対的学習を用いて、どのように敵対的サンプルの影響を防ぐかを解説します。 2025.05.07 専門家向け解説記事