Red HatのAIの取り組み
Red HatはAIについてもオープンソースコミュニティに貢献し、エコシステムの支援を強化しながら、そこで生まれたイノベーションをビジネス価値につなげる取り組みを実践している。具体的には、同社はIBM Researchと共同でLLMのGraniteをオープンソース化している。対話やコーディング支援を行うGranite FamilyをApache 2.0ライセンスとしてHugging Face上で公開。利用した学習データについても開示するなど、透明性を担保しているのが特徴と石川氏は言う。また、Red HatとIBMによるオープンソースプロジェクト「InstructLab」ではOSSコミュニティを通じて、モデル学習のためのデータ合成や特定用途に向けたチューニングの仕組みを提供していくという。
ビジネス面では、主力製品にAI機能のRed Hat LightSpeedを実装して強化するほか、AIを開発/運用するためのプラットフォームを提供している。
プラットフォームは、ローカル環境でAI開発ができる「Red Hat Enterprise Linux AI(RHEL AI)」(デベロッパープレビュー版)と、統合MLOpsプラットフォーム「Red Hat OpenShift AI」の2つがある。
RHEL AIは、Apache 2.0ライセンスで提供されるGraniteモデルが同梱されており、更にInstructLabによるチューニングの仕組みを実装。PyTorch、モデルランタイム、NVIDIAやIntel、AMDなどのアクセラレータデバイスのドライバを含めて、OSイメージとしてパッケージ化しており、環境構築を簡素化。24時間365日の本番サポートやモデルIP補償、モデルライフサイクルの延長対応など各種サポートなどを利用できる。
一方のRed Hat OpenShift AIは、JupyterLabやPyTorchなどの実験的学習環境、TGIS ServingやvLLMなどのLLMサービングなど、学習や推論のオープンソースプロジェクトを多数取り込んだプラットフォームだ。AIをホストするだけでなく、開発や運用含めて完結することが可能と石川氏は言う。
「Red Hatが目指すAIプラットフォームは、その時点でオープンになっている最新のLLMや用途にあったものを柔軟に選択して実行でき、AIデバイスもコストや消費電力を踏まえて最適なものを選択できるオープンなプラットフォーム」と述べる石川氏。これらを基軸に、単一サーバでAI実行モデルをチューニングするのであればRHEL AIを、大規模コンテナ基盤でAI実行するのであればRed Hat OpenShift AIを採用してもらうことを目指すと話す。
「Red HatのCTO、クリス・ライト(Chris Wright)は、数千のアプリケーションとAIモデルが共存する世界が来るので、その未来に備えて今歩き出さなければならないと述べている。今は特定の生成AIを使う企業が多いが、オープンLLMの性能が上がり、利用コストが低下する中で、オープンLLMを特定用途に特化させていろんな場所で動かすのが一般的になるのは間違いない。そうした用途の基盤を提供していくということが、Red Hatの使命だと考える」(石川氏)