ArayoNews

|||
AI・テック

Apple、次世代SiriにGoogle Gemini導入を正式決定

クラウドAI基盤強化のため年間1兆円規模の協力

AI Reporter Alpha··4分で読めます·
애플, 차세대 시리에 구글 제미나이 도입 확정
要約
  • Appleが次世代Siri開発にGoogle Gemini技術を正式導入し、年間最大10億ドル(約1,400億円)を支払うことになりました。
  • 新しいSiriはクエリプランナー、知識検索、要約システムの3段階アーキテクチャで再設計され、Geminiが推論と要約レイヤーの中核的役割を担当します。
  • iOS 26.4(2026年春)から音声ベースのアプリ制御、個人文脈認識、画面コンテンツ理解など高度なAI機能が順次公開される予定です。

Apple-Google、AI戦略協力を正式化

Appleが次世代Siri開発にGoogle Gemini技術を導入すると正式に発表しました。AppleはCNBCとのインタビューで「社内評価の結果、Googleの技術がクラウドベースのファウンデーションモデル(Foundation Model)構築において最も強力な基盤である」と明らかにしました。Google側も「Appleの次世代ファウンデーションモデルがGemini上で動作する」と協力を公式に確認しました。

今回の協力により、AppleはGoogleに年間最大**10億ドル(約1,400億円)**を支払うことが明らかになりました。Appleは現在クラウドSiriで使用中のモデルよりもはるかに大規模なカスタマイズされたGeminiモデルを採用し、高度な推論能力と文脈理解が必要な中核機能を強化することになります。

3段階アーキテクチャで再設計されるSiri

新しいSiriは3つの中核レイヤーで構成されます。

1. クエリプランナー(Query Planner) — 推論レイヤー
ユーザーのリクエストをどう処理するか決定する頭脳的役割を果たします。Web検索が必要か、個人データへのアクセスが必要か、アプリインテント(App Intents)を通じてアプリと相互作用すべきかを判断します。この部分にGeminiが中核的に投入されます。

2. 知識検索システム
一般的な質問に外部サービスに依存せず回答できる知識ベースシステムです。

3. 要約システム
Apple Intelligenceの中核機能である通知要約、Webページ要約、長文テキスト要約を担当します。Geminiはここでも主要な役割を担うと見られます。

Appleはオンデバイス処理は自社モデルで維持しつつ、クラウドベースの高度なタスクではGeminiを活用するハイブリッド戦略を採用しました。

iOS 26.4で公開予定の新機能

Appleは2026年春予定のiOS 26.4アップデートで以下の機能を発表する計画です。

  • 音声ベースのアプリ内タスク実行: Siriがアプリ内部機能を直接操作
  • 個人文脈認識の強化: ユーザーの状況に合わせたより正確な回答提供
  • 画面コンテンツ理解: 現在の画面に表示されている内容を認識して複雑なタスクを実行

ティム・クック(Tim Cook)CEOは最近の決算発表で「新しいSiri開発が着実に進行中であり、2026年リリース計画を維持している」と述べました。また「今後さらに多くのAIモデルを統合する」とし、ChatGPT、Gemini以外にも様々なモデルとの協力が可能なオープンアーキテクチャを構築中であることを示唆しました。

[AI分析] ビッグテックAI競争地形の再編

Appleの戦略的選択

Appleが自社AI開発ではなくGoogleと手を組んだ背景には時間があります。生成AI競争で出遅れたAppleは、2026年本格リリースのために実証済みの技術が必要であり、Geminiはその条件を満たしていました。

これはAppleの「Not Invented Here(我々が作らなければ使わない)」という伝統と対照的な動きです。ハードウェアとソフトウェアの統合を哲学としてきたAppleが、中核機能であるSiriの頭脳を外部に委ねるということは、AI時代にはスピードと性能がプライドより優先するという判断と読み取れます。

Googleの戦略的勝利

Googleは今回の契約で2つのものを得ます。

  1. 年間1兆円規模の安定収益: GoogleがAppleから受け取っていた検索デフォルト設定費用(年間200億ドル)に続くもう一つの収益源
  2. iPhoneエコシステムへの参入: 15億人のiPhoneユーザーの日常的なAI体験にGeminiが関与

ただしAppleはオンデバイス処理は自社モデルで維持し、Geminiはクラウド高度タスクのみに使用します。完全な従属ではないということです。

マルチモデル戦略の始まり

AppleがModel Context Protocol(MCP)のような標準ベースのアーキテクチャに言及した点も注目に値します。これはSiriが状況に応じてChatGPT、Gemini、自社モデルなどを選択的に使用できる構造に進化する可能性を示しています。

2024年末にOpenAIがChatGPTをSiriに統合したのに続き、今度はGeminiまで追加されることで、Appleは「モデル中立的プラットフォーム」として位置づけられる戦略を展開中と見られます。これは特定のAIモデルに依存せず、最高の性能を維持しようとする現実的な選択です。

今後の展望

iOS 26.4リリースとともに新しいSiriの実際の性能が公開されれば、Appleの今回の選択が正しかったか判明するでしょう。特にクエリプランナーの推論能力と個人文脈理解度が中核的な評価指標となる見込みです。

また、Appleが今後自社大規模モデル開発を並行するのか、それともマルチモデル統合プラットフォームに完全に方向転換するのかも注目ポイントです。2026年はApple AI戦略の真の試金石となるでしょう。

共有

댓글 (5)

호기심많은라떼방금 전

간결하면서도 핵심을 잘 정리한 기사네요.

비오는날사자30분 전

그 부분은 저도 궁금했습니다.

서울의리더8시간 전

gemini에 대해 더 알고 싶어졌습니다. 후속 기사 부탁드립니다.

신중한여행자2일 전

apple-series 관련 기사 잘 읽었습니다. 유익한 정보네요.

겨울의부엉이30분 전

그 부분은 저도 궁금했습니다.

このシリーズの他の記事

AI・テックの記事をもっと見る

最新ニュース