スマートフォンにおけるAI統合を強化する重要な動きとして、 Google は Gemini Live の拡張版の展開を開始し、ユーザーがデバイスの画面コンテンツとより直感的にやり取りできるようになりました。この開発は、主要スマートフォンメーカー間で続くAI競争における新たな一歩となり、より多くのユーザーに高度な対話型AI機能をもたらします。
新しい画面分析機能
Gemini Live の最新アップデートでは、画面上のコンテンツについてAIアシスタントと話し合う新しい方法が導入されました。ユーザーは YouTube の動画、画像、文書など、画面に表示されているあらゆるコンテンツについて、スクリーンショットを撮影してアップロードする必要なく、 Gemini と対話できるようになりました。この機能は、 Gemini Live インターフェースに表示される「について話す...」ボタンで起動できます。
主な機能:
- 画面コンテンツ分析
- 音声コマンド起動
- クイックキャプチャカメラオプション
- PDF文書の完全アクセス
- YouTube 動画のリアルタイム分析
- 画像認識機能
強化されたユーザーインターフェースと機能性
アップデートされた Gemini Live インターフェースには、包括的な対話ツールセットが搭載されています。ユーザーは音声コマンド(「Hey Google」)、テキストフィールドでの入力、または新しいクイックカメラキャプチャオプションを使用して視覚的な入力を行うことができます。PDFの分析時には、 Gemini は文書全体にアクセスできる一方、画像や動画の場合は画面上に表示されている内容のみを処理します。
利用可能性とデバイスサポート
Galaxy S24 シリーズで最初に導入されたこの機能は、現在 Pixel 9 デバイスにも拡大されています。展開は段階的に行われており、一部のユーザーはすでにアクセスできる一方、他のユーザーはアップデートを待つ必要があります。これは、以前の Circle to Search 機能の展開と同様、 Google の典型的な段階的展開アプローチに従っています。
現在対応デバイス:
- Pixel 9 シリーズ
- Galaxy S24 シリーズ
- Galaxy S25 シリーズ
将来への影響
このアップデートは、日常的なスマートフォン使用におけるAIとの対話をより自然でアクセスしやすいものにする重要な一歩を表しています。この機能が更に多くの Android デバイスに展開されるにつれ、 Android エコシステムの標準的なコンポーネントとなり、将来的にユーザーがデバイスとやり取りし、情報を処理する方法に影響を与えることが期待されています。