英国政府、11月開催のAIセーフティサミットに向け目標を発表

(英国)

ロンドン発

2023年09月06日

英国政府は9月4日、11月1日および2日に英国のブレッチリー・パークで開催されるAIセーフティサミットに向けた5つの目標を発表外部サイトへ、新しいウィンドウで開きますした。

英国政府は6月に、AI(人工知能)の安全性に関する初めての世界的なサミットを英国で開催することを発表。主要国の政府高官、AI企業、研究者などが集い、AI技術に関するリスク、特にフロンティアAI(注)開発におけるリスクを検討する。AI技術の安全性を高めるための迅速かつ国際的な行動を模索し、コンセンサスを形成するとともにリスクの軽減方法を議論することを目的としている。

英国政府が掲げた目標は次のとおり。

  • フロンティアAIがもたらすリスクと対策の必要性についての共通理解を深める
  • フロンティアAIの安全性に関する国際協力のための前進プロセスを提示する
  • フロンティアAIの安全性を高めるために個々の組織が取るべき適切な措置を提案する
  • モデル能力の評価や、ガバナンスを支援するための新たな標準の開発など、AIの安全性に関する研究における潜在的な協力分野を特定する
  • AIの安全な開発を確保することで、AIが世界的にどのように利活用されるかを紹介する

英国政府はAI産業について、創薬などの進歩への貢献、および生産性向上や公共利益をもたらす大きな可能性を秘めている一方、適切な規制がなければ重大なリスクをもたらすとし、国際レベルでのリスクへの取り組みの必要性が高まっていると指摘した。

(注)2023年7月26日に、米国テック企業のアンスロピック、グーグル、マイクロソフト、オープンAIなどが、安全で責任あるAI開発を推進するための業界団体「フロンティアモデルフォーラム」の設立を発表。同団体は、フロンティアAIを、既存の最先端AIモデルに備わっている機能を超え、さまざまなタスクを実行できる大規模な機械学習モデルと定義。オープンAIは、フロンティアAIについて、公共の安全に重大なリスクをもたらすに十分な危険な能力を持つことから、業界による自主的な規制が重要な対策の1つだとしている。

(松丸晴香)

(英国)

ビジネス短信 d1f92d16bb37dc43