英政府、AIセーフティサミットに先立ち、フロンティアAIに関する報告書発表

(英国)

ロンドン発

2023年10月31日

英国政府は10月25日、フロンティアAI(注)から生じる可能性とリスクに関して報告書を発表外部サイトへ、新しいウィンドウで開きます。報告書は11月1日から2日にかけて英国で行われるAI(人工知能)セーフティサミット(2023年9月6日記事参照)での討議資料としても用いられる。報告書は次の3つからなる。

  • 現在のAIの能力や、将来的にその能力を発展させる手段のほか、社会的な害悪や誤用、コントロール喪失といったリスクを検討するための討議資料。
  • 生成AIの発展が国際的に重要な利益をもたらす潜在性を秘めている一方、脅威となる主体の能力を高め、攻撃の効果を高めてしまうという2025年までの安全及びセキュリティー上のリスクに関する報告。
  • 開発での不確実性、将来のシステムが及ぼし得るリスクと、2030年までのAIに関するさまざまなシナリオについての報告。

リシ・スナク首相は26日、AIのリスクの理解と対処に関する責任について演説外部サイトへ、新しいウィンドウで開きます。英国として3つの手法で取り組むとした。まず、政府内にAIモデルの安全性を理解し評価する機能を構築するため、現在のタスクフォースなどに加え、AIセーフティ機関を設立する。次に、AIセーフティサミットの開催を挙げ、市民社会や先駆的な企業、中国を含むAI利用の先進国を招き、AIのリスクの性質に係る国際的な声明を発出することを目指すとしたほか、国際的な専門家パネルを設置し「AI科学の状況(State of AI Science)報告書」の発表を提案するとした。また、サミットでは企業や国と連携深化に取り組み、AIの安全性に関してより国際的な手法を目指して取り組むことが理想であるとした。最後に、重大な社会課題の解決に資することなどを踏まえ、社会をよくするためのAIを開発するために科学的な取り組みを行わなければならないとした。

英国政府は27日に、AIの安全性に関して主要企業などが現時点で実施している手続きや実践例について示した文書を、フロンティアAI企業向けに発表(添付資料表参照)。これは、9月の政府からの要請を受けて主要なフロンティアAI企業6社が発表した各社の安全性に関する方針外部サイトへ、新しいウィンドウで開きますや研究機関、市民社会の検討を基にしている。

また同日、英国のデータ倫理・イノベーションセンターが主導して、カナダ、フランス、ドイツ、イタリア、日本、シンガポール、韓国、英国、米国の国民を対象としたAIの安全性評価に対する意識調査の結果外部サイトへ、新しいウィンドウで開きますも発表している(添付資料図参照)。

このほか、英国のテック系スタートアップ団体「スタートアップ・コーリション」など3機関も合同で26日、報告書「英国AIスタートアップ・ロードマップ外部サイトへ、新しいウィンドウで開きます」を発表している。

(注)英国政府の定義によると、広範なタスクを実行可能で、現在最も進んだ人工知能(AI)のモデルが有する能力に匹敵、またはそれを超える能力を持つ高性能な汎用型AIモデル。

(山田恭之)

(英国)

ビジネス短信 c16a190f43e5950a