SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZine Press

AMDのGPUプログラミング基盤「ROCm」とは何か──100%オープンソースで挑むソフトウェアスタックの現在地

AMDシンガポール取材レポート 前編:GPU開発環境を塗り替えつつある新勢力の今


 AIを動かすためのGPUといえばNVIDIA、ソフトウェアスタックといえばCUDA──そんな常識が揺らぎつつある。2026年4月にAMDシンガポールオフィスにて開催された、アジア圏のメディア向けワークショップでは「コードを1行も変えずにNVIDIAからAMDに移行できる」という言葉が飛び出した。AMDが「ROCm(ロックエム)」と呼ぶオープンソースのGPUコンピューティング基盤が、ここに来て急速に整備されてきたからだ。LLMをローカルやクラウドで動かしたいが、どのスタックを選べばいいか悩む開発者に向けて、AMDの技術エキスパートから聞いたROCmの現在地を報告する。

CUDAとの違いから読むROCmの設計

 AI開発の話をするとき、GPUといえばNVIDIA、その上で動くソフトウェア基盤といえばCUDA、という組み合わせが頭に浮かぶエンジニアは多いはずだ。CUDAは2006年のリリース以来、機械学習・深層学習のデファクトスタンダードとして圧倒的な地位を築いてきた。しかし2026年4月、シンガポールで開催されたAMDのワークショップは、その前提が静かに変わりつつあることを示すものだった。

 イベントはAMDシンガポールオフィスを拠点に開催された、アジア圏のメディアに向けてAMDの最新動向とROCmのハンズオンを提供する小規模ワークショップだ。ハンズオンを交えたメディア向けイベントを開催するのは同社初の試みとなる。

 ソフトウェア戦略のセッションを担当したのは、AMDでAIソフトウェアエコシステムを統括するコーポレートバイスプレジデント、Ramine Roane氏。午後のハンズオンワークショップはプリンシパルAIソフトウェア開発エンジニアのSeungrok Jung氏が担当した。

 Roane氏が冒頭で述べたのは、こんな一言だった。「AMDで働くソフトウェアエンジニアの数は、ハードウェアエンジニアより多い。それくらいソフトウェアは重要なんです」。その背景には、AMDが「ROCm」というオープンソースのGPUコンピューティング基盤に、ここ数年で大規模な投資を続けてきた事実がある。

AMD AIソフトウェアエコシステム担当コーポレートバイスプレジデント Ramine Roane氏
AMD AIソフトウェアエコシステム担当コーポレートバイスプレジデント Ramine Roane氏

 ROCmは、CUDAに相当するAMDのGPUプログラミング基盤だ。CUDAとの最大の違いは、スタック全体が100%オープンソースであることにある。CUDAのコアはクローズドだが、ROCmにおけるCUDA相当の低レベルAPIは「HIP(ヒップ)」と呼ばれ、GitHubで完全に公開されている。コミュニティ全体が貢献し、フォークし、自社用途にカスタマイズできる。

AMDが掲げるソフトウェア戦略

 ROCmの戦略はシンプルな3本の柱で整理されている。1つ目は「Open Source」、スタック全体をオープンにし、コミュニティの全員が貢献できる状態にする。2つ目は「Abstraction(抽象化)」、低レベルのC++コードを書かなくても、Python的なドメイン固有言語(OpenAI Tritonなど)を使って高いパフォーマンスを引き出せるようにする。そして3つ目は、約1年前に追加された「AI Assist」、AIモデル自身を使って、ROCm向けのワークロードを最適化されたかたちで自動生成するという取り組みだ。

ROCmのソフトウェア戦略
ROCmのソフトウェア戦略

 この3つの柱の成果として、AMDは今、最新の主要LLMモデルに対して「Day 0サポート」を提供できるようになったとRoane氏は言う。Day 0サポートとは、モデルが発表された当日からAMD GPU上で動作することを指す。「モデルリリースの1週間ほど前に開発チームがモデルを共有してくれます。たいてい、そのまま動くんです。何もしなくても」。

 Hugging Faceに掲載されている280万以上のモデルすべてで動作するという点も注目に値する。さらに、PyTorch、JAX、vLLM、SGLangといったトップクラスのオープンソースフレームワークについては、それらのリポジトリにAMDのGPUが提供されており、開発者が新しいコードをコミットするたびに、AMDのGPU上でCIテストが自動実行される仕組みになっている。コードがマージされる前に、必ずAMDのGPUを通過しなければならない——それが現在の標準的な開発フローとして定着している。

 この体制を整えたのが、2025年9月にリリースされたROCm 7だ。同バージョンからすべてのCIテストで安定動作が確認され、シングルノードから複数ラックにまたがる分散推論まで、エンドツーエンドで動く環境が揃った。

次のページ
LLMを本当に速く動かすためのライブラリ──AITERとMoRI

この記事は参考になりましたか?

CodeZine Press連載記事一覧

もっと読む

この記事の著者

近藤 佑子(編集部)(コンドウ ユウコ)

株式会社翔泳社 CodeZine編集部 編集長、Developers Summit オーガナイザー。1986年岡山県生まれ。京都大学工学部建築学科、東京大学工学系研究科建築学専攻修士課程修了。フリーランスを経て2014年株式会社翔泳社に入社。ソフトウェア開発者向けWebメディア「CodeZine」の編集・企画・運営に携わる。2018年、副編集長に就任。2017年より、ソフトウェア開発者向けカンファレンス「Developers...

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

CodeZine(コードジン)
https://codezine.jp/article/detail/24187 2026/05/14 12:20

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング