SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

Microsoft、ブラウザ内推論を可能にするONNX Runtime Webの提供を開始

  • X ポスト
  • このエントリーをはてなブックマークに追加

  • X ポスト
  • このエントリーをはてなブックマークに追加

 米Microsoftは、機械学習モデルを表現するためのオープン スタンダードであるONNXモデルを運用環境にデプロイするためのハイパフォーマンス推論エンジンであるONNX Runtimeの新機能として、ONNX Runtime Webの提供を9月2日(現地時間)に開始した。

 ONNX Runtimeは、AI開発者がさまざまなハードウェアおよびソフトウェアプラットフォームでモデルを実行するための使いやすいエクスペリエンスを提供することを目的としており、TensorFlow、PyTorch、SciKitLearnといった最も一般的なトレーニングフレームワークをサポートしている。バージョン1.5以降は、サーバ側の推論を高速化するだけでなく、ONNX Runtime for Mobileが利用可能になった。

 今回、提供が開始されたONNX Runtime Webは、ブラウザ内の推論に重点を置いた、ONNX Runtime 1.8リリースの新製品であり、ブラウザ内での推論を行えるようにすることで、Webアプリケーションのクロスプラットフォームでの移植性を高められるとともに、サーバとクライアントの通信を減らし、ライブラリの追加やドライバのインストールを行うことなく配布エクスペリエンスが簡素化され、パフォーマンスが向上する。

 ONNX Runtime Webでは、WebAssembly(WASM)とWebGLバックエンドを個別に使用して、CPUとGPUの両方でブラウザのモデル推論を高速化できる。CPU推論の場合は、Emscriptenを使用してネイティブONNX Runtime CPUエンジンをWASMバックエンドにコンパイルする。また、WebGLはGPUで高いパフォーマンスを実現するために用いられる。

関連リンク

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/14817 2021/09/13 10:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング