79
Google、新フレームワーク「TensorFlow Lite」でAndroid Oに機械学習を組み込む

Googleは、モバイルOSの次期バージョン「Android O」に「TensorFlow Lite」と呼ばれる新機能を搭載すると発表しました。これにより、開発者はアプリ向けに強化されたデバイス内AIを利用できるようになります。これにより、Androidにおける音声認識、コンピュータービジョン、その他の機械学習を活用した機能の向上が期待されます。これは、テクノロジー企業がAIをデータセンターからあらゆるデバイスへと移行させようと躍起になっていることを浮き彫りにしています。

TensorFlowは、Googleのオープンソースの機械学習ソフトウェアライブラリです。開発者はTensorFlowを利用することで機械学習の取り組みを迅速に開始でき、ゼロから開発を始める必要がなくなり、製品の差別化に集中できます。Googleも多くの製品でTensorFlowを使用しています。このプロジェクトは、Googleの機械学習研究組織であるGoogle Brain Teamの研究として始まりました。

GoogleのAndroidエンジニアリング担当副社長、デイブ・バーク氏はI/Oで、TensorFlow Liteは「高速かつ小型でありながら、畳み込みニューラルネットワークやLSTMといった最先端技術を利用できるように設計されたアプリ向けライブラリ」だと述べた。また、Android Oではハードウェアアクセラレーションによるニューラルコンピューティングに「新しいフレームワーク」が導入され、TensorFlow Liteは「シリコン固有のアクセラレータを活用」するために新しいニューラルネットワークAPIも使用するとバーク氏は述べた。

バーク氏は、これらすべての追加機能が連携して、「次世代のデバイス内音声処理、視覚検索、拡張現実などを強化する」と述べた。

Googleはブログ投稿で、「Androidはユーザーエクスペリエンスの向上に機械学習を活用し続けています。開発者パートナーにも同様の取り組みをしていただきたいと考えています」と述べています。そこで登場するのがTensorFlow Liteです。Googleによると、TensorFlow Liteとこの新しいフレームワークは、今夏後半にリリース予定のAndroid Oに、「今年後半にOのメンテナンスアップデート」として追加される予定です。

同社はTensorFlow Liteについて次のように述べている。

TensorFlow Liteは、組み込みユースケース向けに高速かつ軽量に設計されています。デバイス上の多くのシナリオではリアルタイムパフォーマンスが求められるため、TensorFlowが計算を高速化するために活用できる新しいニューラルネットワークAPIの開発にも取り組んでいます。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

デバイス上での機械学習の実現は、一部のテクノロジー企業にとって注力分野となっています。例えば、NVIDIAは自社のGPUをディープラーニングの学習と推論に最適なハードウェアとして位置付けようとしており、Movidiusはデバイス上での機械学習に特化した「ビジョン・プロセッシング・ユニット」(VPU)を開発しました。両社がこの問題にどのように取り組んだかについては、クライアントサイド・ディープラーニングに関するレポートで詳しくご覧いただけます。

ソフトウェア面では、Appleは2016年6月にiOS 10を発表した際に、デバイス上でのディープラーニングを大々的に宣伝しました。Facebookは2016年11月にCaffe2Goプロジェクトを発表しました。これは「手のひらにリアルタイムAI」を実現することを目的としています。Microsoftも、AIを活用してホームビデオの編集や複合現実コンテンツの調整を支援するWindows 10アプリ「Story Remix」で、デバイスへのAI導入に取り組んでいます。

Googleは現状に甘んじているわけではない。同社はI/Oで、Nvidiaが新しいVolta GPUアーキテクチャと同時に発表したTesla V100アクセラレータよりも50%高速化すると謳う新しいCloud TPUも発表した。ただし、Nvidiaはデバイスに「Tensor Core」を内蔵している。Cloud TPUはGoogleのクラウドベースAIの性能向上に貢献する。TensorFlow Liteは、GoogleとAndroid開発者がデバイス上で同様の機能を実現できるよう支援する。

これはあなたにとって何を意味するのでしょうか?それは、インターネット接続を必要とせずに最高の機能を提供する、よりスマートなアプリが実現するということです。インターネット接続は、特にモバイルデバイスにおいて、クラウドベースのAIの最大の欠点の一つです。もしこれらの機能の少なくとも一部が、たとえバックアップとしてだけでも、組み込みの機械学習を利用できれば、オフラインになった瞬間にアプリが動作しなくなるという心配はもうなくなるでしょう。

より多くの情報をデバイス上に保存できる可能性も秘めています。これはひいてはデバイスのセキュリティ強化につながる可能性があります。エンドツーエンドの暗号化が普及したとしても、個人データをどこか別の場所に送って処理させるよりも、オフラインで保存しておく方が賢明な場合が多いでしょう。マイクロソフトのCortanaは、メールで約束したことを忘れないようにしてくれるのでプライバシーの懸念は生じませんが、そのデータ収集は、その情報をマイクロソフトのサーバーに送信する必要があるため、懸念材料となります。デバイス上に搭載されたAIの継続的な普及は、こうしたプライバシーとセキュリティへの懸念を軽減するのに役立つ可能性があります。

ナサニエル・モットは、Tom's Hardware US のフリーランスのニュースおよび特集記事ライターであり、最新ニュース、セキュリティ、テクノロジー業界の最も面白い側面などを扱っています。