ソフトバンクは1月21日、AIデータセンター向けのソフトウェアスタック「Infrinia AI Cloud OS」を開発したと発表した。同製品は、複数ユーザー環境に対応したKubernetes as a Service、ならびに大規模言語モデル(LLM)の推論APIを提供するInference as a Serviceを備える。これにより、GPUクラウドサービス事業者は総所有コストや運用負荷を軽減しつつ、柔軟かつ迅速なAI環境構築が可能になる。
「Infrinia AI Cloud OS」は、最先端GPU基盤での各種自動設定や、AIワークロード要件に応じたクラスター再構成、セキュアなマルチテナント対応などが特徴だ。OpenAI互換APIなども搭載し、既存AIアプリケーションとの連携も容易になっている。ソフトバンクは今後、自社GPUクラウドサービスへの導入とともに、海外展開を進める予定だ。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
