SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

Google、TensorFlow LiteをAndroidの標準推論エンジンに

  • X ポスト
  • このエントリーをはてなブックマークに追加

  • X ポスト
  • このエントリーをはてなブックマークに追加

 米Googleは、Androidの標準推論エンジンを「TensorFlow Lite」にすると10月18日(現地時間)に発表した。9月にはGoogle Play開発者サービス(Google Play services)にTensorFlow Liteを組み込んで提供を始めていたが、TensorFlow LiteがAndroidの標準推論エンジンとなった。

 TensorFlow Liteの下層には、「TensorFlow Lite Delegates」が存在する。これは、GPUやDSPなどといった推論処理を高速化するハードウェアを抽象化する層だ。Appleだけが製造販売しているiPhoneやiPadは、SoCやGPU、Neural EngineもAppleが開発したものを使用している。ハードウェアの機能を抽象化する上で問題になるのは、それぞれのハードウェアの世代だけだ。

 一方でAndroidは、SoCだけを見てもさまざまなメーカーが開発している。GPUもメーカーによってアーキテクチャがまるで異なるということもある。QualcommはAI処理を高速化する回路をDSP(Digital Signal Processor)と呼んでいるが、これはQualcommだけだ。Androidの場合、ハードウェアの違いを吸収して抽象化層をアプリケーションに提供するには、多種多様なハードウェアに1つひとつ対応していかなければならない。Googleは現在、ハードウェアを開発しているパートナー企業と共同で、抽象化層の開発に取り組んでいるという。

 また、推論を支援するハードウェアに多様な選択肢があるAndroidでは、同じスマートフォンやタブレットでも、どのハードウェアを使用すれば最も高い性能が得られるのかが分かりにくい。現在Googleは、抽象化ハードウェアの組み合わせを選んで、最適な組み合わせを見付けることを可能にするAPIの開発に取り組んでいるという。

関連リンク

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/16713 2022/10/24 08:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング