米Googleは、機械学習のトレーニングと機械学習モデルの実行を高速化する「Cloud TPU」ベータ版の提供を、2月12日(現地時間)にGoogle Cloud Platformにて開始した。
Cloud TPUは、TensorFlowによってプログラムされた機械学習ワークロードの、速度向上と拡張性向上に最適化されたハードウェアアクセラレータ。4基のカスタムASICで構成され、最大180テラフロップスの浮動小数点演算、64GBの広帯域幅メモリを備えている。単体で使用可能なほか、高速な専用ネットワークによって相互接続し、マルチペタフロップ機械学習スーパーコンピュータ「TPU pods」としても使用できる。
通常、カスタムASICやスーパーコンピュータのプログラミングには、非常に高度な技能が求められるが、Cloud TPUならTensorFlowのAPIが使えるため、より容易なプログラミングが可能になっている。また、Cloud TPUの参照モデルはオープンソース化されているので、ただちに開発を始められる。
現段階では、数量限定で提供されており、Cloud TPU×1基の1時間あたりの利用料金は6.5USドル(課金は秒単位)。
なお、2月27日(現地時間)には、Cloud TPUについて紹介するWebセミナーも開催される。
【関連リンク】
・Google開発者向けブログ
・「Cloud TPU」
・Cloud TPU・Webセミナー(英語)
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です