EUにおけるAI規制の動向

はじめに

2024年7月12日、Artificial Intelligence Act(AI Act、以下、AI法)がEU官報 に掲載されました。AI法はAIのリスクに対処し、欧州が世界的に主導的な役割を果たすAIに関する史上初の法的枠組みとして欧州委員会が2021年4月に提案を行ったものです。以降、2023年5月には欧州議会による修正案が公表され、その後、EU理事会を含めた三者対話が進められてきました。これらの過程においては、欧州委員会が提案した原案に対して、いくつもの修正が加えられています。AIに関しては、国際的にも規制の検討がさまざまな国でなされる中で、EUのAI規制が与える影響は小さくありません。また、EUのAI規制の検討状況における議論の変遷は、国際的なAIに関する昨今の動向を踏まえたものであるため、併せて分析を行うことで国際的なAI規制を考える上での1つの指標となり得ます。

EUにおけるAI法成立の背景

2020年2月19日、欧州委員会(現在の政権は2019年から2024年)は優先すべき課題(Priority)としてA Europe fit for the digital age (以下、デジタル戦略)を公表しました。これは、欧州委員会の前政権(2014年から2019年)において2015年5月に公表されているデジタルシングルマーケット(Digital Single Market=DSM)戦略 を継承、発展させたものと捉えることができます。

DSMは、我が国にも大きな影響を与えているGeneral Data Protection Regulation(一般データ保護規則、以下、GDPR)を成立させるなど、ブリュッセル効果と呼ばれる欧州発のデジタル関連政策パッケージの代表例となっています。欧州委員会はこのDSMのもとで、2018年4月にAI戦略(Artificial intelligence for Europe)を公表し、加盟国との調整計画に合意しました。さらに、AI戦略に先んじて設置されたAIに関するハイレベル専門家グループ(AI HELG)は、信頼できるAIに関する倫理指針[1]を2019年4月に公表しました。

このような流れの中で、デジタル戦略においては「AIの卓越性と信頼性」「欧州のデータ戦略」「欧州の産業戦略」が3つの柱として掲げられ、主要な制度が提案されました。つまり、欧州委員会にとって、AIは政権を跨いだ重要政策の1つと位置づけられていることが理解できます。そして、前政権において最も成功した政策の1つであるGDPRをロールモデルとした新たな法制度としてAI法が提案されました。

AI法は、欧州の人々にとってAIが提供するものを信頼できることへの保証を目的としています。ほとんどのAIシステムはリスクを伴わないか、リスクが限定的であり、多くの社会問題の解決に貢献できる中、一部のAIシステムは望ましくない結果を避けるために対処しなければならない、つまり、リスクを生み出す可能性があることが前提となっています。例えば、AIシステムがなぜ、ある決定や予測を行い、特定の行動を取ったのかを突き止めることができない場合があります。そのため、雇用や公的給付制度の申請などにおいて、誰かが不当に不利益を被っているかどうかを評価することが難しくなる可能性があります。このような場合に現行の法律は一定の保護を提供しているが、AIシステムがもたらす可能性のある特定の課題に対処するには不十分であり、十分な保護を提供するためにAI法が必要とされています。

2023年6月14日、欧州議会はAI Actの最終形に関するEU加盟国との協議を前に、同法に関する交渉の立場を賛成499票、反対28票、棄権93票で採択しました(以下、欧州議会修正案)。これは欧州議会が求める修正内容について行われた採択であり、欧州議会の考え方が強く表れています。欧州議会の優先事項は、EUで使用されているAIシステムが安全で、透明で、追跡可能で、差別なく、環境に優しいものであることを保証することであるとされています。議会は、AIシステムによる有害な結果を防ぐために、自動化されるのではなく人々によって監督されるべきであるという価値観を示しています。議会はまた、将来のAIシステムに適用できる技術を前提として、中立で統一されたAIの定義を確立することを望んでいると表明しています。議会による修正箇所は大きく分けて、リスクベースアプローチの修正、定義規定の追加・修正、の2点でした。リスクベースアプローチの修正では、各リスクの具体化が図られたほか、遠隔生体認証システムと生成AIに関するリスクが追加されました。

2024年3月13日、欧州議会は、安全性と基本的権利の遵守を確保し、イノベーションを促進するAI法に関して承認するポジションを採択しました(以下、欧州議会採択案)。2023年12月に加盟国との交渉で合意されたAI法は、賛成523票、反対46票、棄権49票で欧州議会によるポジションが採択されました。これは、欧州議会とEU理事会および欧州委員会の三者対話(Trilogue)非公式な合意プロセスにおいて合意形成が前進したことを意味します。その後、EU理事会のポジション採択を経て法律として成立したが、エディトリアルな修正以外は欧州議会採択案以降官報掲載まで行われないため、欧州議会採択案が大きな修正が行われる最後のポイントになります。欧州議会採択案では、禁止されるアプリケーションに関する更なる追記、法執行機関の適用除外の明確化、リスクの高いシステムに対する義務の明記、イノベーションと中小企業支援措置の追記、が行われました。このうち、禁止されるアプリケーションとしては、プロファイリングやスコアリングの禁止が明記されています。また、リスクの高いシステムに対する義務として、システミックリスクの評価と軽減が義務づけられています。

AI規制の概要

AIに関する世界初の包括的な法的枠組みであると紹介されているAI法[2]は、信頼できるAIの開発を支援するためのより広範な政策措置の一部であり、AIイノベーションパッケージやAIに関する調整計画なども含まれています。これらの措置は、AIに関する人々や企業の安全と基本的な権利を保証します。また、EU全域におけるAIの普及、投資、イノベーションを強化する。AI法の目的は、AIシステムが基本的人権、安全、倫理原則を尊重することを保証し、非常に強力で影響力のあるAIモデルのリスクに対処することで、欧州および欧州域外で信頼できるAIを育成することだとされています。

AI法には、AIアプリケーションによって生じるリスクに対処すること、許容できないリスクをもたらすAIの利用を権利すること、高リスクのアプリケーションをリスト化し明確な要件を設定すること、利害関係者の義務を定義すること、AIシステムに上市前の適合性評価を義務づけ上市後の執行を担保すること、EUおよび加盟国レベルでのガバナンス体制を構築すること、が含まれています。

AI法の包括的な法的枠組みの中核をなすのが、AIに対するリスクベースアプローチです。AI法は比例的な(proportional)リスクベースアプローチを採用しています。これは、AIのリスクを許容できないリスク、高リスク、制限されたリスク、最小化されたリスクの4つに分類し、さらにリスクに応じて適合性評価等を求めるものである。このアプローチは技術開発を過度に制約したり、AIソリューションを市場に投入するコストを過度に増加させたりすることはない、とされています。

なお、AI法に加えて、2022年9月、欧州委員会はProposal for a Directive on adapting non contractual civil liability rules to artificial intelligence(AILD)を公表しています(AILDは2025年3月現在、成立の見通しが立っていません)。欧州委員会は、信頼できるAIの構築に貢献する、相互に関連する3つの法的イニシアティブを提案しています。それらは、①AIシステム特有の基本的権利と安全性のリスクに対処するためのAIのための欧州法的枠組み、②民事責任の枠組み:責任規則をデジタル時代とAIに適応させること、③分野別の安全法制(機械規則、一般製品安全指令など)の改正、である。AILDはこれらの一環として位置づけられています。AILDを通じて、法的な責任に関する既存の議論とAIによって生じる問題の調整が図られることが期待されており、例えば、保険商品の設計などが可能になることによって、AIの社会的な普及に資することがその一例です。

欧州委員会の行動はAIに関する法的枠組みの提案を通じて、補完的で釣り合いのとれた柔軟な一連のルール形成を行い、AIの特定の利用によって生じるリスクに対処することを目的としています。また、これらの規則を制定することで、世界のゴールデンスタンダードを設定する上で、欧州が主導的な役割を果たすことを目指しています。この枠組みは、既存の国内法およびEU法ではカバーできない場合にのみ介入することで、AIの開発者、導入者、利用者が従うべきルールを明確にしています。

参考文献

[1] https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai

[2] https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng

タイトルとURLをコピーしました