Google Lens の進化:動画検索と音声クエリが視覚 AI に革命をもたらす

BigGo Editorial Team
Google Lens の進化:動画検索と音声クエリが視覚 AI に革命をもたらす

Google は、 Lens アプリケーションに画期的な更新を加え、視覚検索技術の限界を押し広げています。この技術大手は、動画検索機能と音声クエリサポートを導入し、ユーザーがスマートフォンを通じて周囲の世界とどのように相互作用し、理解できるかに大きな飛躍をもたらしました。

動画検索:視覚 AI の新次元

Google Lens に追加された最も注目すべき機能は、動画を使用した検索能力です。現在 Search Labs の参加者が利用できるこの機能により、ユーザーは短い動画クリップを録画しながら、同時にその内容について質問することができます。 Google の AI はその後、動画フレームと音声入力を分析して、関連情報や回答を提供します。

例えば、水族館を訪れて魚の群れの行動について疑問に思ったとします。新しい Lens の更新により、魚の動画を録画しながら「なぜ一緒に泳いでいるの?」と尋ねるだけで、システムは視覚入力と質問に基づいて AI による回答を生成します。

静止画像に対する音声クエリ

動画検索に加えて、 Google は Lens の写真検索に音声クエリサポートも導入しました。この機能により、ユーザーは撮影した画像について、タイピングせずに質問することができ、検索プロセスがより直感的でアクセスしやすくなります。

買い物体験の向上

Google Lens はまた、買い物関連の機能も改善しています。ユーザーが製品を検索すると、以下のような包括的な結果が表示されるようになりました:

  • 直接購入リンク
  • カスタマーレビュー
  • プロによるレビュー
  • 比較ショッピングツール
  • 様々な小売業者からの価格

この更新は、買い物プロセスを効率化し、ユーザーがより情報に基づいた購買決定を行えるようにすることを目的としています。

魔法の裏にある技術

これらの新機能は、 Google の Gemini AI モデルによって支えられており、連続する複数の動画フレームを理解し処理するようにカスタマイズされています。現在のシステムは視覚情報に焦点を当てていますが、 Google のエンジニアたちは、鳥の鳴き声識別などのタスクに音声分析を組み込む将来の開発を示唆しています。

利用可能性とアクセス

動画検索機能は現在、 Android と iOS デバイスの両方で Search Labs を通じて利用可能です。写真検索の音声クエリは Android と iOS で世界的に展開されていますが、当初は英語のみでの提供となります。

プライバシーへの配慮

実世界の画像をキャプチャーして分析する技術には、プライバシーに関する懸念があります。 Google は、 Lens が個人の顔を無視しようと試みながら文脈情報を処理するように設計されていると述べています。しかし、ユーザーは公共の場でこれらの機能を使用する際、周囲の環境や他人のプライバシーに注意を払う必要があります。

視覚検索の未来

Google Lens へのこれらの更新は、より直感的で包括的な視覚検索機能に向けた重要な一歩を表しています。技術が進化し続けるにつれて、 AI 、拡張現実、マルチモーダル検索機能のさらに洗練された統合が期待できます。

現在、ユーザーは Search Labs に登録し、 AI Overviews 実験にオプトインすることで、これらの新機能を探索できます。 Google がこれらの機能を改良し拡張するにつれて、私たちは周囲の視覚世界との相互作用と理解の方法に変革をもたらす初期段階を目撃しているのかもしれません。