1年後はもう動かない? AIの進化に追いつけない開発環境
時代と生成AIが急速に進化する中、開発者の手元のスペックはそのスピードに追いついているだろうか。企業でAIを活用するには、汎用モデルではなく、自社のデータや業務知識を組み込んだAIアプリケーションを開発する必要がある。そのアプリケーションをどれだけ早く、確実に形にできるかが、今後の企業を左右する。
ところが、AIアプリケーションの開発現場は「スペックの壁」に直面している。SB C&SでNVIDIA製品の検証に携わっている下山翔也氏は「AI周辺の技術進歩があまりに速く、それに伴いインフラへの要求も高まっている。1年前に動かせていたものが、手元の環境では動かせないことも珍しくない」と話す。
これにはさまざまな背景がある。開発に必要な情報は、より多く高度になっていくため、LLM(大規模言語モデル)のサイズも増加していくため、GPUのメモリ不足でデータをロードできず、満足に動作しない状況が起きる。加えて、高度な処理に対応するために、より新しいモデルが登場することで、旧規格のGPUには互換性がないこともある。「試したいのに、スペックが足りず動かせない」状況が発生する。
また下山氏は、「近年の半導体不足や需要増の影響でGPU価格が高騰しており、ハイエンド製品は100万円、200万円では収まらないケースもある。エンジニア一人ひとりに割り当てるのは現実的ではなく、部署や会社で共有せざるを得ない状況も生まれてしまう。その結果、順番待ちが発生して業務が進まないこともある」と指摘する。
企業のAI開発に用いるNVIDIA H100やB200搭載のハイパフォーマンスなコンピュータは、電源、空調、重量などの物理的制約からデータセンターへの設置が前提となり、所有できる企業は限られる。現実的な選択肢としては、NVIDIA RTX PRO 6000 Blackwell Workstation Editionなどのワークステーションになる。しかし、PCのように1人1台配布するのは難しく、共有利用による「GPU待ち」が生じてしまう。
このような状況では、開発者はリソースが空くのを待たねばならず、ちょっとしたアイデアを試すのにも時間がかかる。これは開発サイクルを遅らせ、生産性を低下させる要因となる。
もちろんクラウド活用も選択肢の1つだ。「まずは試しに少しだけ」という用途には適している。インスタンスを柔軟に選択でき、初期投資や保守も不要だからだ。しかし、GPUインスタンスは時間単価が高く、利用状況によっては課金額が急増する。予算管理の難しさはクラウドの難点といえる。
下山氏は「金融や医療などデータを外部に出せない業態では、セキュリティの観点からオンラインのSaaSが使えない場合がある。また、課金体系が不明瞭なSaaSより、固定費で運用できるオンプレミスのソリューションを検討する顧客は確実に増えている」と話す。
モデルの検証やプロトタイピングには反復試行が欠かせない。しかし、オンプレミス環境によるGPUの順番待ちやコスト制約によって、開発者が「思いついた瞬間に試す」ことが難しくなっているのが現状だ。
セットアップはわずか1時間。自分専用のAIスパコン「DGX Spark」とは
AIを動かすための選択肢は、データセンターのスーパーコンピュータ、オンプレミスのワークステーション、クラウドのGPUインスタンスの3つが一般的だった。しかし、実はもう1つの選択肢がある。NVIDIAが「パーソナルAIスパコン」と呼ぶ、NVIDIA DGX Spark(以下、DGX Spark)だ。
DGX Sparkは、単行本を数冊積み上げたようなコンパクトなサイズで置き場には困らない。加えて、100V電源で動作するため、サーバー用の特別な設備や工事は不要である。静音性にも優れており、下山氏が「ノートパソコンより静かかもしれない」と言うほど、ファンの音はほとんど聞こえない。そのため、開発者のデスクサイドに置くことも可能だ。
下山氏は「絶対的な処理性能ならワークステーションが勝る。しかし、DGX Sparkはオフィスシーンでも一般的な100Vの電力で動作し、非常に静かである。開発者が即座に試行できる環境として、極めて魅力的である」と話す。スーパーコンピュータやワークステーションに比べて手軽に導入でき、固定費で運用できる。そして、開発者の「待ち」問題を解消できるのがDGX Sparkだ。
ワークステーションでAI開発を行う場合は、GPUカードを搭載したマシンを調達し、ドライバやCUDA環境を整える必要がある。例えば、Blackwellアーキテクチャを採用したGPU、NVIDIA RTX PRO 6000 Blackwell Workstation Editionを使う場合、GPUメモリは96GBだ。コア性能やスループットなどの純粋な計算性能では、ワークステーションが優位に立つ。
一方DGX Sparkは、GPUカードの組み合わせではなく、セットアップ済みの完成品として提供されている。この製品のGPUにあたるのが「GB10」だ。このGB10は、GPUだけではなくCPUも統合されているチップであるところが大きな特徴だ。
GPUとCPUが統合されているため、ストレージからのデータ読み込み効率が高く、メモリ空間が広いため、RTX PRO 6000単体と同じサイズ感のモデルを動かすことができる。もし搭載メモリである128GBで不足する場合は、2台を連結して高速な分散推論や複数ユーザーでの利用に役立てることも可能だ。
また、導入の速さも魅力である。ワークステーションのような複雑なセットアップは不要で、最初からGPUドライバや必要な環境が整っている。加えて、NVIDIA NIMのような最新ソフトウェアスタックにもフルアクセスでき、すぐに開発を開始できる。
下山氏によると「電源を入れてネットワークにつなげば、30分ほどで基本的な環境が整う。生成AIの準備を含めても1時間あれば使い始められるだろう。Ubuntuベースのため、Linuxの知識があれば迷わず操作できるはずだ」と話す。
スーパーコンピュータ並みの性能を持ちながら、セットアップの手軽さはパソコン並みだ。さらに、スーパーコンピュータ同様のDGX OSがセットアップ済みのため、本番環境である大規模なDGXへの移行もシームレスに行える。手軽に導入できるため、DGX Sparkは開発者にとって「自分専用のAIスパコン」となり、従来のオンプレミス環境で発生していた「待ち」を解消できるため、実効性能が高い。
ガジェットとしての魅力も見逃せない。ミニPCのような外観でありながら、超高速ネットワークインターフェース(NVIDIA ConnectX-7)を備えた「自分専用のスパコン」をデスクに置けることは、開発者のモチベーション向上にも寄与するだろう。DGX Sparkは個人向けの販路もあり、高級PC数台分に相当する価格ながら、個人で購入するケースもあるほどだ。
手元で「動かせる」環境を ──プロトタイプを本番へ繋ぐ支援体制
DGX Sparkは手頃で強力なインフラだが、企業で本格活用するためには、導入から運用までを支援するパートナーが欠かせない。
国内最大級のディストリビューターであるSB C&Sは、さまざまなメーカー製品を取り扱い、一定の在庫を確保しているため、幅広い選択肢と迅速な製品提供が可能だ。今回紹介したDGX Sparkも待たせることなく早く届けられる。しかし、同社の真の強みはハードウェアの提供だけでなく、パートナー向けの多角的な支援体制にある。
下山氏は、「当社の強みは、単なるディストリビューターとしての役割にとどまらず、ハンズオントレーニングを含む技術的支援までを提供できる点にある」と語る。

SB C&Sでは、実際に手を動かして検証を行っている。開発者のデスクサイドで用いるようなDGX Sparkから、データセンター向けの巨大なDGX、モジュラー型のNVIDIA MGX、RTXワークステーションまで、NVIDIA DGXファミリーを熟知しているため、具体的なアドバイスをパートナーや顧客に提供可能だ。
導入前には、特定のモデルが動作するか、最適なサイズはどれか、推論速度は十分かといった実機検証を顧客と共に行える。下山氏は「NIMなど最新のソフトウェアスタックも社内で検証しているので、Sparkをどう活用すべきか具体的に提案できる」と話す。
生成AIが日常化し、多くの企業が業務活用を模索しているが、LLMの導入には大規模なシステムや高価な機材が必要だと思われがちだ。
下山氏は、「DGX Sparkはコンパクトながら、手元でAIを動かせる環境を提供する。『動かせる』ことと『動かせない』ことの間には、大きな差がある。これまで手元では動かせなかったモデルが、CDケースサイズのコンピュータで動作し、コスト面でも導入しやすい。ぜひエンジニアの皆さんには、この環境を使い倒してAIアプリケーション開発に役立てていただきたい」と締めくくった。

