欧州委、AI規制枠組み法案や開発促進策などの政策パッケージ発表

(EU)

ブリュッセル発

2021年04月23日

欧州委員会は4月21日、人工知能(AI)に関する政策パッケージ外部サイトへ、新しいウィンドウで開きますを発表した。欧州委は2020年2月に、AIのリスク対応とAI開発の推進の両面でEUが世界的な主導権を握るべきだとする「AI白書」(2020年2月21日記事参照)を発表しており、AI規制枠組み規則案外部サイトへ、新しいウィンドウで開きますと、EUと加盟国間の協調計画外部サイトへ、新しいウィンドウで開きますなどからなる今回の政策パッケージは「AI白書」を具体化したものだ。

AIのリスク別規制を設定

EUレベルでは初となるAI規制枠組み規則案は、AI利用時の基本的人権の保障や安全性を確保することで、AIに対する利用者の信頼の醸成を目指すと同時に、AI利用の法的安定性や加盟国間での規制の調和を提供することで、AIの普及を狙う。今回の規制案は民間・公的機関を問わず、EU域内のAIシステムの提供事業者とその利用者だけでなく、AIシステムのサービスがEU域内で利用される場合には、EU域外のAIシステム提供事業者や利用者にも適用する。

AIシステムは利用目的に応じて以下の3段階のリスクに分類され、リスクごとに規制を設ける。

  • 容認できないリスク:サブリミナル(潜在意識に作用する)技術の利用、政府が個人の信用力を格付けする社会信用システムの運用、法執行目的を含めた顔認証などの遠隔生体認証技術の公共の場でのリアルタイム利用といった、基本的人権に反するAIシステムの活用は原則禁止する。
  • 高リスク:雇用、教育、医療、法執行などの分野で個人の重大な利益に係る意思決定、重要なインフラ、生体認証などで用いられる安全性や基本的人権に悪影響を及ぼすAIシステムは規制対象となる。こうしたAIシステムの提供事業者には、当該AIシステムの提供開始前に、同規則案の規定要件の適合性評価手続きをとることが義務化され、提供開始後もリスクや品質の管理を実施することが求められる。
  • 低・最低限のリスク:上記規制の対象外のAIシステムに対しては、新たな義務は課さない。ただし、自動応答(チャットボット)プログラムのように人と関わることを前提に開発されたシステムなどを提供する場合には、AIシステムが利用されていることを開示する義務を課す。

同規則案の実施で中心的役割を担うのは各加盟国であり、違反した場合には最大で3,000万ユーロ、あるいは全世界での前年度総売上高の6%の罰金を科す。

規則案はEU理事会(閣僚理事会)と欧州議会で今後審議される。

大規模な投資計画も提案

2018年版協調計画の改定版となる協調計画は、AIの開発と普及の強化やAI規制の調和に向けたもので、欧州委と加盟国の共同行動を提案するものだ。欧州委はAI分野に年間10億ユーロの投資を実施し、加盟国や民間からの資金も呼び込むことで、今後10年間で年間200億ユーロの投資を目指すとしている。

(吉沼啓介)

(EU)

ビジネス短信 9be84601921a1d7f