一般読者向け

AIはだまされることがある?~AIに仕掛けられるワナとその守り方~

今や、AI(人工知能)は私たちの生活のあちこちで使われています。たとえば、スマートフォンの顔認証や自動運転の自動車、オンラインストアでの商品のおすすめ表示などもそうです。でも、そんな便利なAIも「だまされてしまう」ことがあるのをご存じでしょうか?その代表例が、「敵対的サンプル」と呼ばれる仕掛けです。この記事では、その仕組みと守り方を、できるだけわかりやすくご紹介します。

AIの判断根拠がわかる?説明可能なAI

いまやAI(人工知能)は、スマートフォンの顔認証やネットショッピングのおすすめ機能など、私たちの暮らしのさまざまなところで使われています。でも、「どうしてAIはこんな判断をしたの?」と疑問に思うことはありませんか?この記事では、「AIがどのようにその答えを出したのか」を人にもわかりやすく説明できる技術、「説明可能AI(XAI)」について、やさしくご紹介します。

LLMによる有害な応答を防ぐ、安全機構

LLMが有害な応答をしないようにするための安全機構について解説します。本記事を読むことで、安全機構の仕組みについて理解を深めることができます。

AIを不正に操る、バックドア攻撃

攻撃者が意図したタイミングでAIを不正に操ることを可能にするバックドア攻撃について解説します。

あなたは騙されない?ディープフェイクがもたらす偽情報とその対策

AI技術を利用して、実在する人物の顔や音声を模倣して偽コンテンツなどを作成する技術であるディープフェイクやその対策について解説します。

国際的なAI規制の動向

AI規制を概観するために、本稿では主に国際的なAI規制の議論の状況について解説します。

プロンプトインジェクション

LLMへの代表的な攻撃の一つであるプロンプトインジェクションについて解説します。

AIセキュリティに関する用語集

AIセキュリティに関する用語をまとめて解説します。

AIの悪用

AIの悪用に関して、具体的な事例、その影響、および対策について解説します。

有害な応答

LLMから得られる有害な応答の種類と被害、影響について解説します。