Apple が Siri の大規模 AI アップグレードが丸1年遅れた理由を説明

BigGo 編集部
Apple が Siri の大規模 AI アップグレードが丸1年遅れた理由を説明

Apple の最も期待されていた人工知能機能が最近のアップデートから目立って欠けており、約束されたパーソナライズされた Siri アップグレードがなぜ実現されないのかをユーザーは疑問に思っている。今年の Worldwide Developers Conference の後、Apple の幹部たちはついに、完全なアーキテクチャの見直しを余儀なくされ、リリーススケジュールを丸1年押し戻した技術的課題について明らかにした。

遅延の背景にある技術的現実

Apple のソフトウェアエンジニアリング責任者 Craig Federighi は、WWDC 後の Tom's Guide とのインタビューで、よりパーソナライズされた Siri を構築する同社の当初のアプローチが単純に十分ではなかったと明かした。Apple が開発した第一世代のアーキテクチャは、同社の品質基準を満たすには限界があることが判明し、エンジニアたちは振り出しに戻ることを余儀なくされた。品質の劣る製品をリリースするのではなく、Apple は2025年春に困難な決断を下し、計画段階にあった第二世代アーキテクチャに完全に方向転換した。

このアーキテクチャの転換は、単なる軽微な調整以上のものを意味する。Federighi は、新しい基盤があっても、Apple はユーザーの期待に応えるためにこれらの Siri 機能を継続的に改良していることを認めた。一から始め直すという決断は本質的に開発スケジュールをリセットし、差し迫っているように見えた機能が Apple の直近のロードマップから消えた理由を説明している。

主要なタイムライン情報

イベント 日付 詳細
初代アーキテクチャ開発 2025年春以前 第一世代アーキテクチャは不十分と判断
アーキテクチャ転換決定 2025年春 第二世代アーキテクチャへの完全移行
機能リリース予定 2026年春 iOS 26.4 アップデートの一部として提供予定
総遅延期間 約1年 当初予想されていたタイムラインから

実用的な AI への戦略的転換

Siri の変革を待つ間、Apple は業界観測筋が「ゴルディロックス・アプローチ」と呼ぶ人工知能への取り組みを採用している。失望を招く可能性のある過度に野心的な機能や、ほとんど価値を加えない過度に基本的なツールを追求するのではなく、同社はユーザーがすぐに評価できる実用的で日常的な AI 強化に焦点を当てている。

Visual Intelligence の最近のアップデートがこの戦略を例証している。この機能により、Apple Intelligence はスクリーンショット、ウェブ検索、ChatGPT 統合を支援できるようになり、Android の Circle to Search に類似した機能に対するユーザーの要求に直接応えている。同様に、新しい Hold Assist 機能は AI を使用して電話中にユーザーが保留にされたことを検出し、キューでの順番を維持し、通話が再開されたときに両者に警告する。

Apple の現在の AI 戦略の特徴

実用的な AI 実装:

  • ChatGPT 統合による Visual Intelligence
  • 電話通話管理のための Hold Assist
  • Messages と FaceTime でのリアルタイム翻訳
  • 開発者向けオンデバイス AI モデルへのアクセス
  • Xcode での AI コーディング支援

パートナーシップアプローチ:

  • 機能強化のための ChatGPT 統合
  • 開発者向け外部 AI モデル接続
  • AI 研究よりもハードウェア・ソフトウェア統合に重点

パートナーシップと開発者エンゲージメントからの学習

Apple のアプローチは、すべての AI 機能を社内で構築しようとするのではなく、コラボレーションを受け入れるように進化した。同社は現在、特に Visual Intelligence アップデートと改良された Image Playground 機能において、ChatGPT のような強力な外部ツールをそのエコシステム内に統合している。このパートナーシップアプローチにより、Apple は最高クラスの AI 機能を活用しながら、同社が最も得意とすること、つまりシームレスなハードウェアとソフトウェアの統合に集中できる。

同社はまた、Apple Intelligence プラットフォーム全体でのイノベーションを加速できる才能ある開発者コミュニティを認識し、初めて開発者にオンデバイス AI モデルを開放した。さらに、開発者は Xcode 内で AI モデルに接続してコーディング支援を受けることができるようになったが、Apple の実装は競合他社が提供するネイティブ AI コーディングアシスタントとは異なる。

この画像は、 Apple の AI 開発戦略に関連する、テクノロジーのイノベーションに焦点を当てた議論の場面を捉えている
この画像は、 Apple の AI 開発戦略に関連する、テクノロジーのイノベーションに焦点を当てた議論の場面を捉えている

スケジュールと法的影響

マーケティング責任者 Greg Joswiak は、これらの機能を来年ローンチするという Apple の言及が具体的に2026年を意味し、強化された Siri 機能は2026年春の iOS 26.4 の一部として登場する可能性が高いことを確認した。この大幅な遅延は、AI 機能を特に求めて A18 チップ搭載デバイスにアップグレードした消費者が予想より長く待たされることになったため、すでに米国とカナダで複数の集団訴訟を引き起こしている。

この遅延は、競争圧力と法的課題に直面しても、スピードよりも品質を重視する Apple のコミットメントを浮き彫りにしている。迅速なリリースよりも堅牢なアーキテクチャ基盤を優先することで、Apple は不完全な機能を市場に急いで投入するよりも、遅れても優れた製品が最終的にユーザーにより良いサービスを提供するという賭けに出ているようだ。