米Googleは、モバイル機器および組込機器向けの軽量な機械学習ソリューション「TensorFlow Lite」のデベロッパープレビュー版を、11月14日(現地時間)に発表した。
TensorFlow Liteは、バイナリサイズが小さく、高速な初期化および起動によって、オンデバイスでの機械学習を可能にする。ランタイムはさまざまなプラットフォームで動作するよう設計されており、現時点ではAndroid版とiOS版が提供される。また、モバイル機器への最適化によってモデルの読み込みにかかる時間を大幅に短縮したほか、ハードウェアアクセラレーションもサポートしている。
TensorFlow Liteには、あらかじめトレーニング済みのモデル「TensorFlow Model」が用意されており、これらのモデルが「TensorFlow Lite Converter」でTensorFlow Lite形式(TensorFlow Lite Model File)に変換され、モバイルアプリケーション内にデプロイされる。
処理系は、C++ API(Android/iOS共通)とインタプリタで構成されており、インタプリタはオペレータなしなら70KB、すべてのオペレータがロードされた状態なら300KBと、従来のTensorFlow Mobileの1.5MB(通常のオペレータを使用する場合)と比較して、大幅な軽量化を実現した。
なお、Android搭載機器では、これらに加えてJava APIが用意されるほか、一部の機器ではインタプリタにおいてAndroid Neural Network APIによるハードウェアアクセラレーションも利用できる。
モデルとしては、モバイル/組込機器向けに設計された1000種類のオブジェクトクラスの識別が可能な画像識別モデル「MobileNet」、「MobileNet」と比較して高精度ながらデータサイズが大きくなる「Inception v3」、チャットへの着信にワンタッチで返信できる「Smart Reply」を用意する。また、「MobileNet」と「Inception v3」は「ImageNet」データセットでトレーニングされており、転移学習(トランスファーラーニング)によって手持ちの画像データセットを用いた再学習も可能になっている。
なお、Goolgeはすでにモバイル/組込機器向け機械学習ソリューションとして、TensorFlow Mobile APIを提供しているが、今回リリースされたTensorFlow LiteはTensorFlow Mobileの発展型に位置付けられ、今後はモバイル/組込機器向け機械学習ソリューションの主流となることが見込まれる。
ただし、現時点ではTensorFlow Liteはデベロッパープレビュー版であり、製品レベルのサポートが求められる場合は、TensorFlow Mobileを使用する必要がある。
【関連リンク】
・Google Developers(英語)
・TensorFlow(英語)
・TensorFlow Liteのドキュメント(英語)
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です