1年後はもう動かない? AIの進化に追いつけない開発環境
時代と生成AIが急速に進化する中、開発者の手元のスペックはそのスピードに追いついているだろうか。企業でAIを活用するには、汎用モデルではなく、自社のデータや業務知識を組み込んだAIアプリケーションを開発する必要がある。そのアプリケーションをどれだけ早く、確実に形にできるかが、今後の企業を左右する。
ところが、AIアプリケーションの開発現場は「スペックの壁」に直面している。SB C&SでNVIDIA製品の検証に携わっている下山翔也氏は「AI周辺の技術進歩があまりに速く、それに伴いインフラへの要求も高まっている。1年前に動かせていたものが、手元の環境では動かせないことも珍しくない」と話す。
これにはさまざまな背景がある。開発に必要な情報は、より多く高度になっていくため、LLM(大規模言語モデル)のサイズも増加していくため、GPUのメモリ不足でデータをロードできず、満足に動作しない状況が起きる。加えて、高度な処理に対応するために、より新しいモデルが登場することで、旧規格のGPUには互換性がないこともある。「試したいのに、スペックが足りず動かせない」状況が発生する。
また下山氏は、「近年の半導体不足や需要増の影響でGPU価格が高騰しており、ハイエンド製品は100万円、200万円では収まらないケースもある。エンジニア一人ひとりに割り当てるのは現実的ではなく、部署や会社で共有せざるを得ない状況も生まれてしまう。その結果、順番待ちが発生して業務が進まないこともある」と指摘する。
企業のAI開発に用いるNVIDIA H100やB200搭載のハイパフォーマンスなコンピュータは、電源、空調、重量などの物理的制約からデータセンターへの設置が前提となり、所有できる企業は限られる。現実的な選択肢としては、NVIDIA RTX PRO 6000 Blackwell Workstation Editionなどのワークステーションになる。しかし、PCのように1人1台配布するのは難しく、共有利用による「GPU待ち」が生じてしまう。
このような状況では、開発者はリソースが空くのを待たねばならず、ちょっとしたアイデアを試すのにも時間がかかる。これは開発サイクルを遅らせ、生産性を低下させる要因となる。
もちろんクラウド活用も選択肢の1つだ。「まずは試しに少しだけ」という用途には適している。インスタンスを柔軟に選択でき、初期投資や保守も不要だからだ。しかし、GPUインスタンスは時間単価が高く、利用状況によっては課金額が急増する。予算管理の難しさはクラウドの難点といえる。
下山氏は「金融や医療などデータを外部に出せない業態では、セキュリティの観点からオンラインのSaaSが使えない場合がある。また、課金体系が不明瞭なSaaSより、固定費で運用できるオンプレミスのソリューションを検討する顧客は確実に増えている」と話す。
モデルの検証やプロトタイピングには反復試行が欠かせない。しかし、オンプレミス環境によるGPUの順番待ちやコスト制約によって、開発者が「思いついた瞬間に試す」ことが難しくなっているのが現状だ。

