米半導体やテック大手、次世代AIの高速インターコネクト標準規格推進へ連携

(米国)

サンフランシスコ発

2024年06月10日

米国のアドバンスト・マイクロ・デバイセズ(AMD)、ブロードコム、シスコ、グーグル、ヒューレット・パッカード(HP)、インテル、メタ、マイクロソフトなどの半導体やテック企業は共同で5月30日、人工知能(AI)アクセラレーター(注1)間で高速かつ遅延の少ない通信を可能とする規格の「ウルトラ・アクセラレーター・リンク(UALink)」を発表した。併せて、同規格を推進する業界団体「UALinkプロモーターグループ」を創設し、AI向けデータセンター間の次世代高速インターコネクトの標準規格を推進するために提携することを発表外部サイトへ、新しいウィンドウで開きますした。

UALinkは、サーバー内のAIアクセラレーターチップを接続し、より迅速で効率的なチップ間の通信を可能にするものだ。1つのAIコンピューティングポッド(注2)内で1,024個の画像処理半導体(GPU)を接続でき、既存のインターコネクトと比較して速度を向上できるという。このUALinkの開発を進めるために、UALinkプロモーターグループは2024年第3四半期(7~9月)にコンソーシアムを設立し、参加企業に提供する予定だ。

AMDのデータセンターソリューション本部長のフォレスト・ノーロッド氏は「業界には、いかなる企業にも邪魔されることなく開発を迅速に進められ、複数の企業がエコシステム全体に価値を付加できるような、開かれた標準規格が必要だ」と述べた。

現在、AIに特化した半導体チップで、エヌビディアが市場の95%を占めるとされている(「エコノミスト」6月7日)。標準化されたUALinkが普及すれば、エヌビディア製以外のGPUでも、AI向けデータセンターに利用することが可能になる。すでに各テック大手は自社でアクセラレーターを開発(注3)しており、UALinkにより仕様の異なるアクセラレーターを接続できることになる。

なお、エヌビディアは既に自社製AIチップなどでNVLinkなど自社開発のインターコネクト技術があり、UALinkはそれらに対抗する狙いがあると複数メディアが報じている。そのため、エヌビディアは同グループには参加しないものとみられる。

(注1)画像処理半導体(GPU)などからAIモデルのトレーニングや調整、実行を高速化するためにカスタム設計されたチップも含まれる。

(注2)ポッドはサーバーの中にある1つまたは複数のサーバーラックのこと。

(注3)グーグルはカスタム仕様集積回路とアクシオン・プロセッサー、インテルはガウディ、マイクロソフトはマイアとコバルトGPU、メタはMTIAをそれぞれ開発。

(松井美樹)

(米国)

ビジネス短信 208c394debb3e4d9