Clouderaは、NVIDIA AI Enterpriseプラットフォームの一部であるNVIDIA NIMマイクロサービスを搭載した「Cloudera AI Inference」の提供開始、および今後リリース予定の新機能について、同社が10月10日に開催したデータおよびAIに関する年次カンファレンス「EVOLVE24 New York」において発表した。
Cloudera AI Inferenceは、NIMマイクロサービス機能を組み込んだAI推論サービスであり、企業が大規模AIモデルのデプロイや管理するプロセスを合理化して、パイロット段階から本番環境への移行を容易にすることによって、データの本来の可能性を活用して生成AIを推進できるようにする。
企業における生成AIの導入では、コンプライアンスリスクとガバナンスに対する懸念が挙げられるが、Cloudera AI Inferenceでは企業の管理下において、安全な開発とデプロイを提供することで、非プライベートであるベンダーホスト型のAIモデルサービスによる機密データの漏洩を防いでいる。
Cloudera AI Inferenceの活用によって、開発者はNVIDIA Tensor Core GPUsの恩恵を受けて最大36倍のパフォーマンス向上が実現するとともに、CPUと比較して約4倍のスループット向上が可能になり、エンタープライズグレードの大規模言語モデル(LLM)構築、カスタマイズ、デプロイメントを実現できる。また、シームレスなユーザーエクスペリエンスを通じて、UIとAPIを直接NVIDIA NIMマイクロサービスコンテナに統合可能なため、CLIや別のモニタリングシステムが不要になる。さらに、ClouderaのAI Model Registryサービスとの統合によって、モデルのエンドポイントとオペレーション両方のアクセス制御を管理して、セキュリティとガバナンスが強化される。
ほかにも、NVIDIA NIMマイクロサービスを活用したLlamaやMistraといったオープンソースLLMの最適化をはじめとする高度なAI機能や、セキュリティや規制コンプライアンス強化のための、VPCへのデプロイによるオンプレミスまたはクラウドでのワークロード実行、自動スケーリング、高可用性(HA)、リアルタイムでのパフォーマンス監視による問題の検出・修正、および効率的なリソース管理の実現など、充実した機能を備えている。
あわせて発表された、今後リリース予定の新機能としては、単一コードベースによるクラウド環境とオンプレミス環境の境界を感じさせないインフラの構築による統合プラットフォームの実現、あらゆるインフラのデプロイメントを管理、監視、統制する「シングルペインオブグラス(SPOG)」の実現、ハイブリッド環境とマルチクラウド環境にわたるデータレイクの柔軟性とデータウェアハウスのパフォーマンス組み合わせ、ハイブリッド環境におけるインフラ間での一貫したセキュリティ、ガバナンス、データリネージの提供などを予定する。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です