米オープンAIが動画生成AIモデル「ソラ」発表、テック大手は選挙へのAI悪用を防ぐ技術協定に合意

(米国)

ニューヨーク発

2024年02月22日

対話型人工知能(AI)の「ChatGPT」などの開発を手掛けるオープンAIは2月15日、文章から動画を生成できるAIモデル「ソラ(Sora)」を発表外部サイトへ、新しいウィンドウで開きますした。

発表によると、ソラは、人物や背景などを文章で指示すると、複数の人物や特定の種類の動き、対象と背景の正確な詳細を組み合わせた複雑な映像を生成できる。動画は最長1分程度だ。ただし、現行モデルでは、例えば、クッキーを一口食べた後にかみ跡が残らないといったように、複雑な映像の物理法則を正確にシミュレートできず、因果関係を完全に理解できない場合がある。

同社は現在、AIシステムの安全性を検証する専門家からなるレッドチーム、ビジュアルアーティスト、デザイナー、映画制作者などにソラの利用許可を与え、今後の改善に向けたフィードバックを求めている。ただし、同社の広報担当者は、現時点ではソラを広く展開する予定はないと強調しており、その理由を、誤った情報、悪意のあるコンテンツ、偏見を減らす努力や、AIが生成した出力であることの明確な表示といった、さまざまな安全性の問題に取り組み続けるためとしている(アクシオス2月16日)。

動画を生成するAIを巡っては、グーグルやマイクロソフトも開発を進めていることで競争が加速しており、同分野における売上高は2032年までに1兆3,000億ドル規模に達すると予測されている(CNET2月15日)。しかし、AI技術の進歩とともに、生成AIによるディープフェイク(注)が大量に拡散しており、2024年11月に実施される米国の大統領選挙に向けて、生成AIが政治広告に悪用される懸念も高まっている。

2024年には、米国を含む世界40カ国以上で重要な選挙が控えている。こうした状況を受けて、ミュンヘン安全保障会議では2月16日、マイクロソフトやメタ、グーグルなど世界のテック大手企業20社が選挙に向けた生成AIの悪用を防ぐために有害なAIコンテンツの防止、検出や対策に取り組む「2024年選挙におけるAIの欺瞞(ぎまん)的使用に対抗するための技術協定」が合意PDFファイル(外部サイトへ、新しいウィンドウで開きます)された。この協定では、AIによって生成された音声や動画、画像などが、政治家候補や選挙関係者の外見や声、行動を偽造すること、または有権者に対して投票の日時や場所、方法について誤った情報を提供することの防止を目的としている。協定に参加した各社は、欺瞞的なAIに関連するリスク軽減に向けた技術開発や、世界中の民間組織や学術界との多様な連携、一般市民へ透明性を示すことなど、8つのコミットメントを約束した。

(注)AIを用いて、人物の動画や音声を人工的に合成する技術のことを指す。

(樫葉さくら)

(米国)

ビジネス短信 2cb3c8017b38ff60