米半導体やテック大手、次世代AIの高速インターコネクト標準規格推進へ連携
(米国)
サンフランシスコ発
2024年06月10日
米国のアドバンスト・マイクロ・デバイセズ(AMD)、ブロードコム、シスコ、グーグル、ヒューレット・パッカード(HP)、インテル、メタ、マイクロソフトなどの半導体やテック企業は共同で5月30日、人工知能(AI)アクセラレーター(注1)間で高速かつ遅延の少ない通信を可能とする規格の「ウルトラ・アクセラレーター・リンク(UALink)」を発表した。併せて、同規格を推進する業界団体「UALinkプロモーターグループ」を創設し、AI向けデータセンター間の次世代高速インターコネクトの標準規格を推進するために提携することを発表した。
UALinkは、サーバー内のAIアクセラレーターチップを接続し、より迅速で効率的なチップ間の通信を可能にするものだ。1つのAIコンピューティングポッド(注2)内で1,024個の画像処理半導体(GPU)を接続でき、既存のインターコネクトと比較して速度を向上できるという。このUALinkの開発を進めるために、UALinkプロモーターグループは2024年第3四半期(7~9月)にコンソーシアムを設立し、参加企業に提供する予定だ。
AMDのデータセンターソリューション本部長のフォレスト・ノーロッド氏は「業界には、いかなる企業にも邪魔されることなく開発を迅速に進められ、複数の企業がエコシステム全体に価値を付加できるような、開かれた標準規格が必要だ」と述べた。
現在、AIに特化した半導体チップで、エヌビディアが市場の95%を占めるとされている(「エコノミスト」6月7日)。標準化されたUALinkが普及すれば、エヌビディア製以外のGPUでも、AI向けデータセンターに利用することが可能になる。すでに各テック大手は自社でアクセラレーターを開発(注3)しており、UALinkにより仕様の異なるアクセラレーターを接続できることになる。
なお、エヌビディアは既に自社製AIチップなどでNVLinkなど自社開発のインターコネクト技術があり、UALinkはそれらに対抗する狙いがあると複数メディアが報じている。そのため、エヌビディアは同グループには参加しないものとみられる。
(注1)画像処理半導体(GPU)などからAIモデルのトレーニングや調整、実行を高速化するためにカスタム設計されたチップも含まれる。
(注2)ポッドはサーバーの中にある1つまたは複数のサーバーラックのこと。
(注3)グーグルはカスタム仕様集積回路とアクシオン・プロセッサー、インテルはガウディ、マイクロソフトはマイアとコバルトGPU、メタはMTIAをそれぞれ開発。
(松井美樹)
(米国)
ビジネス短信 208c394debb3e4d9