ROCmを今日から試すための3つの入口
ROCmを学び始めたいエンジニアに向けて、AMDはここ1〜2年で具体的な入口を複数用意してきた。
まず「AMD Developer Cloud」は、ブラウザからAMDのGPUインスタンスに直接アクセスできるクラウドサービスで、2025年6月のリリース以来、1年足らずで週次アクティブユーザーが3万2000人を超え、累積GPU使用時間はすでに100万時間を突破した。利用の半分はアジア(APJ・中国)からだという。
「AMD AI Playbooks」は、ROCmスタックを使った即席レシピ集だ。PyTorchやvLLM、LM Studio、ComfyUI、OpenWebUIなど用途別のレシピが揃い、コードをほぼそのままコピーして試せる。「箱から出してすぐ使えるサンプルがあり、それを修正してニーズに合わせて適用できる」というのがRoane氏の説明で、ハンズオンワークショップのような場でも積極的に活用されている。
そして「AMD AI 開発者プログラム」は、2026年1月に正式ローンチした開発者登録制度で、登録するとDeveloper Cloudの無料クレジット(100ドル分)、早期アクセスツール、ワークショップやハッカソンへの招待状が届く。Jung氏もハンズオンの最後に「ぜひ登録してください」と呼びかけていた。ローンチからわずか3〜4か月で10万人以上が参加している。
AMDが語る、オープンスタックを整える意義
ROCmの変化は、実際に使ってきたプレイヤーからも証言されている。イベントに登壇したTensorWave共同創業者のPiotr Tomasik氏はこう振り返る。「MI300Xに初めて取り組んだ頃は、ROCmを機能させるために手動でコンパイルする必要がありました。でも今は1回のコマンドでインストールできます」。
AMDがオープンソースにこだわる理由についてRoane氏はこう語る。「コミュニティの100%が私たちのスタックに貢献できるようにしたい」。vLLMやSGLangとの深い統合、Playbooks、Developer Cloudといった開発者向けインフラは、そのビジョンを実体化させるための取り組みだ。
今後の展開として、Roane氏はWindows上でのROCmデプロイの簡略化とMacとの接続対応を予告した。GitHubには「TheRock」と名付けた再設計版のROCmが公開されており、「どんなコンピュータ上でも簡単にビルドできるコンパクトなバージョン」だという。データセンターからローカル環境まで、ROCmの対応範囲は広がり続けている。
