米Amazon Web Servicesは、高パフォーマンスの深層学習トレーニング用に最適化されたMLチップであるAWS Trainiumを使用した、「Amazon EC2 Trn1 インスタンス」の一般提供を10月10日(現地時間)に開始した。
Amazon EC2 Trn1 インスタンスは、自然言語処理、画像認識といった幅広いアプリケーションにおける複雑なDLモデルの大規模な分散トレーニングに適しており、Amazon EC2 P4d インスタンスと比較してBF16データ型で1.4倍のテラフロップス、TF32データ型で2.5倍のテラフロップス、FP32データ型で5倍のテラフロップス、4倍のノード間ネットワーク帯域幅、最大50%のトレーニングコスト削減を提供する。
現在、同インスタンスは最大で128個のvCPUを備えた16個のAWS Trainiumチップを搭載しており、最大512GBの高帯域幅メモリ、最大3.4ペタフロップスのTF32/FP16/BF16計算能力を提供し、チップ間は超高速なNeuronLinkによって相互接続されている。
高スループットのネットワーク通信を実現すべく、最大800GbpsのElastic Fabric Adapter(EFA)ネットワーク帯域幅が有効化された、最初のEC2インスタンスでもあり、第2世代EFAは前世代と比較して低レイテンシと最大2倍のネットワーク帯域幅を提供する。また、大規模なデータセットへの超高速アクセスのための、最大8TBのローカルNVMe SSDストレージを備える。
Amazon EC2 Trn1 インスタンスでは、8個のvCPU、AWS Trainiumチップ×1基、32GBのアクセラレータメモリ/インスタンスメモリ、最大12.5Gbpsのインスタンスネットワーキング、500GBのNVMe SSD×1基のローカルストレージを搭載した「trn1.2xlarge」と、128GBのvCPU、AWS Trainiumチップ×16基、512GBのアクセラレータメモリ/インスタンスメモリ、800Gbpsのインスタンスネットワーキング、2TBのNVMe SSD×4基のローカルストレージを搭載した「trn1.32xlarge」の、2種類のインスタンスを用意している。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です