生成AIとストレスなく付き合うために必要な環境とは
──まずは自己紹介をお願いします。
幸田章氏(以下、幸田):SB C&Sの幸田です。AIインフラ領域で技術支援するチームのマネージャーをしています。弊社はディストリビューターで、ITのソフトウェアやハードウェアを買い付けて国内のシステムインテグレーターさんに販売しています。私の部署ではNVIDIA製品全般を扱っています。
高橋想氏(以下、高橋):NVIDIAの高橋です。法人向けの製品担当で、デジタルツインを構成する開発プラットフォームのほか、今回テーマとなるNVIDIA DGX Spark(以下、DGX Spark)を担当しています。
──多くのエンジニア・開発者がChatGPTやCopilotを日常的に使うようになりました。この現状をどう考えておりますでしょうか?
幸田:業務の効率化も含め、産業全体が大きく変わる節目が目前に迫ってきているように感じます。
高橋:たしかに、生成AIの爆発的な普及があり、今やAIエージェントでの業務の支援や代替が当たり前に行われております。また、AIが論理的に考えて回答を導き出すリーズニングも登場していますので、インフラの強化が必要になると考えています。
またトレーニングでAIモデルを作るところでも、データやパラメーター数を多く必要とします。加えて、ファインチューニングや推論、リーズニングにおいても、コンピューティングのパワーが必要です。NVIDIAとしては、そのような現状をハードウェアやAI開発環境でサポートしていきたいと考えています。
──これからはアプリケーションにAIを組み込む機会が増えてくるかと思いますが、開発者はインフラを意識するべきなのでしょうか?
幸田:今後AIには、より高い精度や特定のドメイン知識が求められます。汎用的なデータだけで学習したモデルでは要求に応えられず、独自データを加えてトレーニング、あるいはファインチューニングをする必要があります。独自データの学習はクラウド環境でも可能ですが、現実的には性能やコストで課題が生まれてきます。また、機密保持の観点からデータをクラウドに配置することが難しい場合もあります。
結果として、オンプレミスにコンピュータリソースがあることが望ましいケースが増えてきます。またAIそのものに機密性があると考えると、オンプレミスで念入りに学習済みのAIをテストするケースも考えられます。オンプレミス環境を使うにしても、他の用途や他の学習と共用だと、安定的に占有できないケースも考えられます。

──生成AIの普及で企業が直面するインフラの課題には、どのようなものがあるでしょうか?
高橋:先ほどの幸田さんの回答と重複しますが、クラウドやデータセンターのリソースを使うとなると、必要な時にすぐにリソースが使えないことがあります。クラウドだと従量課金でコストがかかります。
あとセキュリティ面では、企業が保有するデータで学習させるとなると、外部(クラウド)に出せずローカル(オンプレ)環境で開発を進めたいというニーズが増えてきます。
幸田:AIが高度化するほどクラウドの限界にぶつかりやすく、要求にスムーズに追いついていけるのはオンプレだという肌感覚をもっています。