米オープンAIとアンスロピック、連邦政府のAI安全対策で協定締結

(米国)

サンフランシスコ発

2024年09月10日

米国AI安全研究所(AISI)は8月29日、人工知能(AI)モデルの安全性の研究、試験、評価を目的として、AI業界をリードする米オープンAIとアンスロピックと協定を締結したと発表外部サイトへ、新しいウィンドウで開きますした。AISIは、AIがもたらし得る脅威への取り組みの一環として、米国商務省傘下の国立標準技術研究所(NIST)に設立され、AI技術に関連した指針の策定などを行っている。(2023年11月6日記事2024年7月30日記事参照)。

同協定の覚書によると、AISIは公開前および公開後に、各社の主要な新モデルに対するアクセス権を得る。モデルの能力や安全性に対するリスク評価を査定すると同時に、リスクを軽減する方法に関し、両社との共同研究が可能となる。また、AISIは英国のAI安全研究所と密接に協力し、両社のモデルの安全性向上に関するフィードバックを提供する予定だ。

AISIのエリザベス・ケリー所長は「安全性は画期的な技術革新を促進するために不可欠な要素であり、この協定はその始まりにすぎない。AIの未来を、責任をもって導くための重要なマイルストーンだ」と述べた。

この協定は、8月29日にカリフォルニア州議会で「最先端AIシステムのための安全で安心な技術革新法(SB1047)」が可決された同日に締結された。同法案は、大規模なAIモデルが生命の危険や5億ドル以上の損害をもたらすサイバー攻撃といった破壊的状況を引き起こすことを防止する目的を持つ。しかし、AIモデルを開発した本人以外がモデルを用いて破壊的状況を引き起こした場合であっても、モデル開発者が責任を負うこと、開発したモデルに対するコンプライアンスの負担がイノベーションを遅滞させること、州司法長官による過度な事前介入を招く恐れがあることなどから、多くの業界関係者が反対している(2024年8月30日記事参照)。

そのため、本協定の締結は、オープンAIがSB1047に対して不支持を表明し、国家安全保障や国際競争に関わる最先端AIモデルの規制は、連邦政府が主導するべきだと主張していることも関連しているとされる。

(松井美樹)

(米国)

ビジネス短信 beb04db529f06b43