CUDAとの違いから読むROCmの設計
AI開発の話をするとき、GPUといえばNVIDIA、その上で動くソフトウェア基盤といえばCUDA、という組み合わせが頭に浮かぶエンジニアは多いはずだ。CUDAは2006年のリリース以来、機械学習・深層学習のデファクトスタンダードとして圧倒的な地位を築いてきた。しかし2026年4月、シンガポールで開催されたAMDのワークショップは、その前提が静かに変わりつつあることを示すものだった。
イベントはAMDシンガポールオフィスを拠点に開催された、アジア圏のメディアに向けてAMDの最新動向とROCmのハンズオンを提供する小規模ワークショップだ。ハンズオンを交えたメディア向けイベントを開催するのは同社初の試みとなる。
ソフトウェア戦略のセッションを担当したのは、AMDでAIソフトウェアエコシステムを統括するコーポレートバイスプレジデント、Ramine Roane氏。午後のハンズオンワークショップはプリンシパルAIソフトウェア開発エンジニアのSeungrok Jung氏が担当した。
Roane氏が冒頭に置いたのは、こんな一言だった。「AMDで働くソフトウェアエンジニアの数は、ハードウェアエンジニアより多い。それくらいソフトウェアは重要なんです」。その背景には、AMDが「ROCm」というオープンソースのGPUコンピューティング基盤に、ここ数年で大規模な投資を続けてきた事実がある。
ROCmは、CUDAに相当するAMDのGPUプログラミング基盤だ。CUDAとの最大の違いは、スタック全体が100%オープンソースであることにある。CUDAのコアはクローズドだが、ROCmにおけるCUDA相当の低レベルAPIは「HIP(ヒップ)」と呼ばれ、GitHubで完全に公開されている。コミュニティ全体が貢献し、フォークし、自社用途にカスタマイズできる。
AMDが掲げるソフトウェア戦略
ROCmの戦略はシンプルな3本の柱で整理されている。1つ目は「Open Source」、スタック全体をオープンにし、コミュニティの全員が貢献できる状態にする。2つ目は「Abstraction(抽象化)」、低レベルのC++コードを書かなくても、Python的なドメイン固有言語(OpenAI Tritonなど)を使って高いパフォーマンスを引き出せるようにする。そして3つ目は、約1年前に追加された「AI Assist」、AIモデル自身を使って、ROCm向けのワークロードを最適化されたかたちで自動生成するという取り組みだ。
この3つの柱の成果として、AMDは今、最新の主要LLMモデルに対して「Day 0サポート」を提供できるようになったとRoane氏は言う。Day 0サポートとは、モデルが発表された当日からAMD GPU上で動作することを指す。「モデルリリースの1週間ほど前に開発チームがモデルを共有してくれます。たいてい、そのまま動くんです。何もしなくても」。
Hugging Faceに掲載されている280万以上のモデルすべてで動作するという点も注目に値する。さらに、PyTorch、JAX、vLLM、SGLangといったトップクラスのオープンソースフレームワークについては、それらのリポジトリにAMDのGPUが提供されており、開発者が新しいコードをコミットするたびに、AMDのGPU上でCIテストが自動実行される仕組みになっている。コードがマージされる前に、必ずAMDのGPUを通過しなければならない——それが現在の標準的な開発フローとして定着している。
この体制を整えたのが、2025年9月にリリースされたROCm 7だ。同バージョンからすべてのCIテストで安定動作が確認され、シングルノードから複数ラックにまたがる分散推論まで、エンドツーエンドで動く環境が揃った。
