米Amazon Web Servicesは、AWS上でジェネレーティブAIを活用したアプリケーションやサービスの構築を可能にするための、Amazon BedrockおよびAmazon Titan FMのプレビュー、Amazon EC2 Trn1n/Inf2インスタンスの一般提供、Amazon CodeWhispererの一般提供および対応言語の追加を、4月13日(現地時間)に発表した。
Amazon Bedrockは、イスラエルのAI21 Labs、米Anthropic、Stability AI、およびAmazonの基盤モデルをAPIを通じて利用できるサービス。ユーザーは、基盤モデルを使用してジェネレーティブAIベースのアプリケーションを簡単に構築およびスケーリングすることが可能であり、テキスト/画像用の強力な基盤モデルへアクセスする機能を提供する。
Amazon Bedrockを通じてアクセスできる基盤モデルとしては、AI21 Labsによる多言語LLMであり、自然言語による指示に従ってスペイン語、フランス語、ドイツ語、ポルトガル語、イタリア語、オランダ語でテキストを生成可能なJurassic-2ファミリ、さまざまな対話およびテキスト処理タスクを実行できるAnthropicのLLMであるClaude、および今回発表されたAmazon Titan FMが含まれる。
なお、Amazon Bedrockは現時点では限定プレビューとなっている。
Amazon Titan FMは、テキストの要約や生成、分類、自由形式のQ&A、情報抽出に対応するジェネレーティブLLMであるTitan Text、単語やフレーズといったテキスト入力を、テキストの意味を含む数値表現に変換することで、パーソナライゼーションや検索などのアプリケーションに役立つLLMであるTitan Embeddingsの2つで構成される。Amazon Titan FMも、Amazon Bedrockと同様に現時点では限定プレビューとなっている。
Amazon EC2 Trn1nインスタンスは、同社が深層学習トレーニング専用に構築した機械学習チップであるAWS Trainiumを搭載しており、他のEC2インスタンスと比較してトレーニングコストを最大50%削減できる。
800Gbpsの第2世代Elastic Fabric Adapter(EFA)ネットワークに接続された、複数のサーバにトレーニングを分散するよう最適化されており、ペタビット規模のネットワークを備えた同じAWSアベイラビリティゾーンに配置された、最大30000のTrainiumチップ(6エクサフロップス以上の演算能力)まで拡張可能なUltraClusterへのデプロイに対応する。
Amazon EC2 Inf2インスタンスは、数千億規模のパラメータを含むモデルを使用した、大規模なジェネレーティブAIアプリケーション用に最適化されており、前世代のInferentiaベースのインスタンスと比較して、最大4倍のスループット、最大10倍の低レイテンシを実現している。また、アクセラレータ間の超高速接続による大規模な分散推論をサポートし、同等のEC2インスタンスと比較して最大40%優れた推論コストパフォーマンスと、クラウドでの最低コストの推論を実現する。
なお、Amazon EC2 Trn1nインスタンス、Amazon EC2 Inf2インスタンスともに、一般提供が開始されている。
Amazon CodeWhispererは、2022年からプレビューされていたAIによるコーディングアシスタントで、今回はPython、Java、JavaScript、TypeScript、C#に加え、Go、Kotlin、Rust、PHP、SQLを含む10の言語に対応するAmazon CodeWhispererの一般提供が開始された。Visual Studio Code、IntelliJ IDEA、AWS Cloud9といったIDEから、AWS Toolkit IDE拡張機能を通じてAmazon CodeWhispererにアクセスできるほか、AWS Lambdaコンソールからも使えるようになっている。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です