米Google Cloudは、OpenXLAを活用することで、PyTorchモデルをわずかなコード変更だけでCloud TPU上で実行できるようにする、「PyTorch/XLA 2.6」を2月1日(現地時間)にリリースした。
今回、リリースされたPyTorch/XLA 2.6では、試験的に導入されたscan演算子によって、forループなど繰り返し実行されるコードブロックのコンパイルを高速化している。
あわせて、TPUテンソルをホストCPUのメモリへ移動するホストオフロードに対応し、より少ないTPUでのより大きなモデルの処理を可能にした。
さらに、C++ 2011標準アプリケーションバイナリインターフェース(C++ 11 ABI)フラグを使用してコンパイルされた、新たなベースDockerイメージによって、トレースに制約されるモデルのグッドプットを改善している。
そのほか、必要な情報を見つけやすくすべく、ドキュメントの再編成も行われた。
なお、PyTorch/XLA 2.6ではPyTorch/XLA:GPUホイールは提供されていないが、バージョン2.7までにGPUサポートの復活を予定している。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です