米Cloudflareは、Workers AIの正式な一般提供の開始、GPU導入の拡大、米Hugging Faceとのパートナーシップの継続、微調整されたBYO LoRA推論のサポート、Pythonによるワーカー作成への対応、AI Gatewayにおける各種サポートの追加などを、4月2日(現地時間)に発表した。
Workers AIの一般公開にあたっては、オープンベータ版の公開を経てパフォーマンスと信頼性が向上するとともに、人気モデルのコストを削減し、新たなWorkers AIダッシュボードとAIプレイグラウンドを追加している。
GPUについては、2023年9月のWorkers AI発表時に、同社の世界中のデータセンタへのGPU導入が開始され、2024年末までに推論用のGPUがほぼあらゆる場所に展開され、もっとも広く分散されたクラウドAI推論プラットフォームになることが見込まれる。現在、150以上の都市にGPUが導入され、今後も多くの都市での導入を予定している。
Hugging Faceとのパートナーシップでは、Hugging Faceでもっとも人気のあるモデルにアクセスして、そのモデルを簡単にWorkers AI上で実行可能になった。
Workers AIに対して、ユーザーからの要望がもっとも多かった機能の1つである微調整された推論は、Bring Your Own(BYO) LoRAによってさらに実現へと一歩近づき、トレーニング済みLoRAのWorkers AIでの導入がサポートされるようになっている。
Pythonによるワーカーの作成は、現在オープンベータ版に到達しており、Pythonによるワーカーは Vectorize、D1、KV、R2などを含むCloudflare上のリソースへの、すべてのバインディングをサポートするようになった。
ほかにも、AI GatewayによるAnthropic、Azure、AWS Bedrock、Google Vertex、Perplexityのサポート、2024年第2四半期におけるログ(プロンプトとレスポンスを含む)をオブジェクトストレージにプッシュできる永続ログ、リクエストにユーザーIDやその他の識別子をタグ付け可能なカスタムメタデータ、シークレット管理の追加、Vectorizeへのメタデータフィルタリングの追加などが発表されている。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です