AI インフラストラクチャ
AI Factoryが提供するソリューションのコアは大きく4つ。「FPT AIインフラストラクチャ」「FPT AI スタジオ」「FPT AI 推論」「FPT AIエージェント」である。
FPT AIインフラストラクチャは、メタルクラウドやGPUマネージドクラスター、GPUコンテナを組み合わせて使う。ニーズに合わせてシームレスに拡張できる点が強みだ。
鈴木氏は、FPT AIインフラストラクチャのソリューションとして、ベアメタルGPUサーバーとGPUクラスターのデモを紹介した。
ベアメタルGPUサーバーでは、最初にGPUの性能(H100・H200)とOSを選び、イメージバージョンを選択。認証に必要なSSHキーを選択し、最後に「作成」ボタンをクリックすればサーバーが作成される。「一つのインスタンスを立ち上げるだけで、非常に簡単にデプロイができるようになっている」と鈴木氏。モニタリング画面では、メトリクスやログを監視することも可能だ。
GPUクラスターは、CPUとGPUを両方立ち上げる必要があり、Worker Group 1でCPUノード、Worker Group 2でGPUを選択する。GPUタイプはNVIDIA Tesla A30を選択。すべてテンプレートになっているので、選択して設定していくだけでNVIDIA GPUクラスターの構築を開始できる。
鈴木氏いわく「パブリッククラウドでクラスタを立ち上げたことがある方なら、簡単に使いこなせるはず」だという。
FPT AI スタジオのデモ
続いて紹介された「AI スタジオ」は、AI/MLの開発、評価、展開のためのインテリジェントなツールの包括的なセット。AIモデルの構築、事前トレーニング、ファインチューニングを実現するほか、モデルのライフサイクルを管理し、共同作業するための「モデルHub」を提供する。
鈴木氏はモデルHubのデモを行った。オープンソースの大規模言語モデルのLLaMAを例に、テキスト分類タスク向けにファインチューニングするデモだ。
FPT AI StudioのModel HubからベースとなるLLaMA 3.2 1Bモデルを選び、Fine-tuningをクリック。テンプレート選択画面でBlankを選んで独自のパイプラインを構築し、学習データと評価データをアップロードする。ここで重要なのは、学習の設定でNVIDIA NeMo Trainerを選択すること。その後、GPUインスタンスを指定してSubmitすればファインチューニングが行われる。
「コマンドだけでは難しい部分はモデルの微調整も可能」だと鈴木氏は補足した。
FPT AI推論
3つ目のコアであるAI推論として、「モデル・サービング」機能と「モデル・アズ・ア・サービス」が提供されている。モデル・サービング機能では、プライベートかパブリックかにかかわらずすべてのモデルを管理できる統一されたインターフェイスを提供する。
鈴木氏は、モデル・サービングのデモを見せながら利用方法を紹介。ポイントとして「リソースタイプで『Custom』を選ぶことで、vCPUやRAM、GPUの数を細かく設定できるので、NVIDIA GPUの性能を最大限に発揮できる」と推奨した。
デプロイされたAIモデルは、APIゲートウェイ経由で簡単に使えるようになる予定だという。
鈴木氏は、このモデルを使ってRAGを実装し、DeepSeekのR1の論文を読み込ませたデモも紹介した。Ollamaのインストールと起動から、ドキュメントの読み込みまでよどみなく進行。論文を読ませると、概要のまとめなど指示通りの答えが返ってくる様子が示された。
今回紹介されたFPT AI Factoryは、3月に正式オープンする予定。先行登録すると割引などのベネフィットを受けることができる。