米Googleは、Androidの標準推論エンジンを「TensorFlow Lite」にすると10月18日(現地時間)に発表した。9月にはGoogle Play開発者サービス(Google Play services)にTensorFlow Liteを組み込んで提供を始めていたが、TensorFlow LiteがAndroidの標準推論エンジンとなった。
TensorFlow Liteの下層には、「TensorFlow Lite Delegates」が存在する。これは、GPUやDSPなどといった推論処理を高速化するハードウェアを抽象化する層だ。Appleだけが製造販売しているiPhoneやiPadは、SoCやGPU、Neural EngineもAppleが開発したものを使用している。ハードウェアの機能を抽象化する上で問題になるのは、それぞれのハードウェアの世代だけだ。
一方でAndroidは、SoCだけを見てもさまざまなメーカーが開発している。GPUもメーカーによってアーキテクチャがまるで異なるということもある。QualcommはAI処理を高速化する回路をDSP(Digital Signal Processor)と呼んでいるが、これはQualcommだけだ。Androidの場合、ハードウェアの違いを吸収して抽象化層をアプリケーションに提供するには、多種多様なハードウェアに1つひとつ対応していかなければならない。Googleは現在、ハードウェアを開発しているパートナー企業と共同で、抽象化層の開発に取り組んでいるという。
また、推論を支援するハードウェアに多様な選択肢があるAndroidでは、同じスマートフォンやタブレットでも、どのハードウェアを使用すれば最も高い性能が得られるのかが分かりにくい。現在Googleは、抽象化ハードウェアの組み合わせを選んで、最適な組み合わせを見付けることを可能にするAPIの開発に取り組んでいるという。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です