GoogleのAIアシスタントがより身近になります。同社は以前の視覚認識機能の制限を撤廃しました。以前の戦略から大きく転換し、Googleは現在、サブスクリプション料金を必要とせずに、より多くのユーザーにプレミアムAI機能を提供しています。
視覚AI機能の拡大提供
Googleは、カメラ機能と画面共有機能を備えた Gemini Live をすべての Pixel スマートフォン所有者に無料で提供し始めました。このリアルタイムでAIアシスタントと画面やカメラビューを共有できる機能は、以前は Pixel 9 シリーズや Samsung の Galaxy S25 シリーズなどの最新フラッグシップデバイスに限定されていたか、有料の Gemini Advanced サブスクリプションが必要でした。同社はソーシャルメディアを通じてこの拡大を発表し、今後数週間にわたってすべての Pixel デバイスがアクセスを受けるまでロールアウトが続くと述べています。
カメラと画面共有機能を備えた Gemini Live
- 以前:Pixel 9 シリーズと Galaxy S25 ラインアップのみ、または Gemini Advanced サブスクリプションでのみ利用可能
- 現在:すべての Pixel スマートフォンで無料提供
- 展開:現在から開始し、今後数週間にわたって継続
- 類似の競合機能:サムスンの「リアルタイムビジュアル AI」(2025年のフラッグシップモデル向けに発表)
機能の仕組み
この機能は Gemini アプリを通じて動作し、ユーザーがAIアシスタントとよりコンテキストに沿った会話ができるようになります。ユーザーが Gemini オーバーレイで「Share screen with Live」ボタンをタップすると、画面の録画と共有を選択できます。同様に、カメラ共有の場合、ユーザーは全画面表示の Gemini Live インターフェースでカメラボタンをタップしてアクセスでき、フロントカメラとリアカメラを切り替えるオプションを備えたビューファインダーが開きます。Googleは最適な結果を得るために安定した動きを推奨しており、ビデオキャプチャ中は画面をアクティブに保つ必要があると述べています。
実用的な応用例
この機能により、GoogleのAIアシスタントの実用性が大幅に向上し、リアルタイムで視覚情報に応答できるようになります。ユーザーは、画面に表示されているものや、カメラで指している対象について Gemini に質問できます—スクロールしているレシピの理解を助けたり、屋外で見つけた珍しい植物を識別したり、デバイスに表示されているコンテンツについてのサポートを受けたりすることができます。画面やカメラの共有がアクティブな場合、ステータスバーにカウンターが表示され、ユーザーは通知シェードからいつでも共有セッションを終了できます。
Googleの広範なAIビジョンの一部
この機能は、昨年の Google I/O で発表された同社の実験的な Project Astra、次世代AIアシスタントで初めて紹介された機能の実装です。Project Astra はユーザーの周囲環境にリアルタイムで応答するように設計されており、その機能は今後の Android XR(拡張現実)デバイスにも拡張される予定です。すべての Pixel デバイスへのこの無料ロールアウトは、高度なAI機能をより広範なユーザーに提供するという Google の戦略における重要なステップを表しています。
市場での位置づけ
この発表のタイミングは、Samsung が2025年のフラッグシップデバイス向けに Real-Time Visual AI と呼ばれる類似機能を発表した直後であることが注目されます。サブスクリプションを必要とせずにこれらの機能を Pixel 全シリーズで利用可能にすることで、Google は、ますます重要性を増すAIスマートフォンアシスタント市場で競争力を高めようとしているようです。この動きにより、追加コストなしでプレミアムAI機能を提供することで、Pixel デバイスが市場で優位に立つ可能性があります。