利用効率の良いAIインフラとは?
あわせて、これらのAIモデルを導入するのに最適な、アリババクラウドのAIインフラも紹介された。セキュリティから、PaaS、MaaSに至るまで幅広いレイヤーのAIインフラが提供されている。
例えば、IaaSのレイヤーの「LINGJUN」。メモリやストレージの最適化を行い、LLM学習の際のGPUの効率を最適化するインフラだ。
PaaSプロダクトのひとつ、「PAI-EAS」は、オープンソースのデプロイサービスである。コンソール上のクリックだけでオープンソースのモデルをデプロイ、APIサーバ化。利用したいリソースをカーソルで選択していくだけで、プログラミングは一切不要である点が特徴だ。
また、「Model Studio」はMaaSレイヤーのAIモデルAPIサービス。先述のWanやQwenといったオープンソースAIモデルや、クローズドのモデルがすでにデプロイされている。
Model Studioには「Aegaeron」というGPU最適化技術が使われているのが特徴だ。
「LLMを使う際、テキストであればトークンで分けてGPUを使用するのが通常ですが、Aegaeronはトークンレベルで複数のGPUにわたって分散させます。GPUの使用量が82%削減できたという検証データもあり、低コストでのモデル利用を実現します」(藤川)
Model Studioは現在シンガポールリージョンから利用でき、今年中に日本リージョンにもローンチ予定だ。
業界に特化したソリューションであらゆる要件を満たす
アリババクラウドの3つのAI戦略の最後は、「業界独自の要件を満たすAIソリューション」。各業界に対して、どのようなソリューションを提供しているのか事例が示された。
事例の1つ目は、自動車メーカーBMWグループとの共同プロジェクト「Qwen LLMによる知能型車両向けAIエージェント」である。このプロジェクトでは、「Car Genius(車両天才)」と「Travel Companion(旅の相棒)」という2つのAIエージェントを自動車に導入する研究・検証が行われている。
運転者がAIエージェントに観光地の情報を尋ねたり、疲労時にシートを倒すよう指示したりするなど、AIが自動車の運転を支援するシステムである。
2つ目の事例は、東南アジア向けの高度多言語AI「SEA-LION」である。これはQwenをベースに、シンガポール政府の主導で開発された、多言語対応のAIモデルだ。藤川氏は「オープンソースのモデルだからできる事例」だと説明した。
3つ目の事例は、Qwen駆動の次世代会計プラットフォーム。会計はすべてをAIで置き換えるには難しい業界だが、シナリオごとにAIをチューニングすることで会計の自動化を実現した。書面からのOCRの精度95%、主導のレビュー時間の80%削減を達成したという。
こうしたソリューションは、アリババクラウド単独ではなく、複数の企業とのAIパートナーシップによって実現されている。日本国内でも、and factoryやグラッドキューブなどのパートナーと協業し、企業のAIアプリケーションの構築を支援している。
これまで説明してきた通り、アリババクラウド・ジャパンサービスではクラウドとAIの両方を提供している。
藤川氏は「拠点をシンガポールに置き、中国発のプロダクトですが、日本のデータ保護法に基づいて使えます。日本国内でAIを使ったソリューションを構築するにあたって、活用していただければ」と語る。
「近年のAI活用ではベンチマークのスコアにとらわれがちですが、本当に大事なのはプロダクトを通してユーザーにどのような価値を提供するかです。最適なAIモデルを活用し、必要十分な価値を生み出していただければ幸いです」(藤川)
アリババクラウド・ジャパンサービスからのお知らせ
本セッションでご紹介したサービスにご興味を持たれた方は、ぜひ公式サイトをご覧ください。

