「AIの未来を1社では築けない」──AMDが語ったエコシステム戦略
イベントは2会場で開催された。セッションとハンズオンは、シンガポール・チャンギ国際空港からほど近いチャンギビジネスパークのオフィスで行われ、その後バスで移動し、電子部品や半導体関連企業が集積するChai Cheeキャンパスの製造・開発拠点でラボツアーが行われた。
AMDシンガポールは1984年の設立から約25年間、製造拠点として稼働してきたが、その後15年をかけて100%の研究開発センターへと転換した。製品開発から市場投入までのエンドツーエンドのエコシステムが確立されており、AMD Instinct GPUの開発にも関わっている。
イベントでウェルカムスピーチを担当したのは、プロダクト開発エンジニアリング担当シニアディレクター兼シンガポール統括のEl Saravanan氏だ。「シンガポール政府は半導体産業の次のフェーズに向けて、人材育成・先端研究開発能力・産学官の連携エコシステム構築に重点を置いた投資を積極的に進めています。このような強靭なエコシステムを背景に、AMDシンガポールはイノベーションから実行への移行を、お客様が求めるスピードと品質で実現しています」と語った。
Saravanan氏はこの日のアジェンダを紹介する際に、こう付け加えた。「AIの未来を1社だけで築くことは不可能です。強力で協力的なエコシステムが必要だという精神に則り、エコシステムパートナーのTensorWaveとMangoBoostからも話していただきます」。GPUを売って終わりではなく、本番で使えるエコシステムを整えることがAMDの戦略の核にあるということが伝わってきた。
「AMD専用クラウド」に賭けたTensorWaveの選択
「コンピュートリソースは制限され、価格は高騰し、単一ベンダーのサプライチェーンに完全にロックインされていた」。ファイヤーサイドチャットに登壇したTensorWave共同創業者・プレジデントのPiotr Tomasik氏は、2023年の創業背景をこう語った。
TensorWaveは「AMD専用AIクラウド」というニッチな立場を意図的に選んだクラウドプロバイダーだ。AWSやGCPといったハイパースケーラー(超大規模クラウド事業者)が多様なGPUを幅広く扱うのに対し、TensorWaveはAMD Instinct GPUのみに特化する道を選んだ。
なぜAMDだったのか。Tomasik氏は3つの理由を挙げる。技術的には「HBM(High Bandwidth Memory)[1]の容量が競合製品と比べて有意に大きい点」。大規模LLMの推論では、モデルをGPU上に乗せるためのメモリ容量が直接的なボトルネックになる。AMD MI355Xはメモリ容量288GBを誇り、これが「1トークンあたりのコスト削減」に直結するという。戦略的には「市場がセカンドソース[2]を必要としていた」こと。そして関係性の面では「AMDは資金調達ラウンドへの参加に至るまで、真のパートナーであり続けた」ことだ。
[1] HBM(High Bandwidth Memory)とは
GPUに搭載される高帯域幅メモリ技術。LLMの推論では、モデルのパラメータをGPUメモリ上に展開して処理するため、容量が大きいほど大規模なモデルを単一GPUで動かせる。AMD MI355Xは288GBのHBM3Eを搭載しており、この大容量が1回のリクエストで処理できるトークン数に直結し、推論コストに影響する。
[2] セカンドソースとは
特定の製品・技術において、主要サプライヤー(ファーストソース)に依存しないための代替供給元のこと。GPU調達の文脈では、NVIDIAのみへの依存から生じる供給不足・価格高騰・ロックインのリスクを避けるための代替GPUベンダーを指す。OpenAIやMetaがAMD GPUの採用を公表したことは、大手企業がセカンドソース確保に本腰を入れ始めたサインとして注目されている。
実際の導入事例として紹介されたのが、動画生成スタートアップのLumaだ。「AMDへのコード書き直しは不要で、稼働率は99%以上。彼らは常に当社クラスターでの体験を絶賛しています」とTomasik氏は言う。
複数のGPUベンダーを使い分ける動きについてもTomasik氏は言及した。「OpenAIやMetaがAMD採用を公に発表したことで、問い合わせが殺到しています。誰もが複数のソリューションに手を伸ばしています」。大手企業がGPU調達を単一ベンダーに依存しない体制を整え始めており、その流れはもはや一部の先進企業に限った話ではないという。
