マウンテンビュー発 ― インターネット上でのGoogle検索エンジンがテキスト検索にあたるのと同じように、Googleレンズは周囲の世界を見るためのツールです。このビジュアル検索ツールが、10機種以上のAndroid端末のデフォルトカメラアプリに搭載されるようになりました。スマートフォンのカメラを対象物に向けるだけで、その詳細を見つけることができます。
これまで、Google LensはGoogleフォトとGoogleアシスタントの機能として提供されていましたが、今後は動画撮影などのカメラアプリのオプションの隣に表示されます。LGのG7 ThinQでは、本体側面にあるGoogleアシスタント専用のハードウェアボタンをダブルクリックすると、Google Lensが起動します。
Lensはより使いやすくなっただけでなく、さらに強力になっています。5月末に向けて展開される新機能には、スマートテキスト選択、スタイルマッチツール、カメラアプリ内で直接情報を検索できるリアルタイムレスポンスなどが含まれます。
テキスト選択ツールを使えば、画像からテキストをコピー&ペーストして変換できます。例えば、手書きのレシピにカメラを向けるだけで、それをドキュメントに変換し、保存したり、友達と共有したりできます。
Style Match機能は、現在見ているアイテムに似たアイテムを見つけるので、何もしなくても、購入したいスタイリッシュな家具や服をウェブ上で探し出すことができます。Googleのアパルナ・チェンナプラガダ氏は、5月8日(火)に開催されたGoogle I/O開発者会議の基調講演で、これは難しいと述べました。なぜなら、Lensはウェブ上の何億ものアイテムをくまなく調べる際に、変化する照明条件や質感に対応しなければならないからです。
詳細: Android P の機能: Google の次期 OS の新機能
しかし、レンズの新機能の中で最もクールなのは、おそらくリアルタイム分析でしょう。カメラアプリを起動してレンズに切り替えると、カメラが周囲の環境をスキャンし始め、捉えたものに関する詳細情報を提供します。例えば、コンサートのポスターにカメラを向けると、レンズがそのアーティストのニューシングルのYouTube動画を表示し、カメラアプリで直接再生を開始します。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
「これは、カメラが単に質問に答えるだけではなく、質問がある場所に答えを提示している例です」とチェンナプラガダ氏は語った。
それをテストするのが待ちきれません。
この記事はもともとTom's Guideに掲載されました。