AppleがLLMを全面採用した新しいSiriを、2026年春のiOS 26.4で投入する見通しだ。
従来のルールベースで動いていたSiriが、ChatGPTやClaudeと同じ土俵のLLMベースに生まれ変わる。
何が変わるのか
変化は3つの層で起きる。
1つ目はインターフェース。従来の音声応答だけでなく、チャットボット形式のテキストUIが追加される。画面上でやり取りしながら複雑な指示を出せるようになる。
2つ目は文脈理解。メールやメッセージの内容をSiriが把握し、「さっき届いたメールの件、明日でいいって返事しておいて」のような、文脈を前提にした指示が通るようになる。
3つ目はアプリ操作。アプリを起動せずに、Siri経由で直接タスクを実行できる範囲が大幅に広がる。
バックエンドにGemini
バックエンドにはGoogleのGeminiおよびGoogle Cloudの技術が採用されている。
AppleがGoogleのモデルを使うという判断は、自社でLLMを一から育てるよりも、既に実績のあるモデルをライセンスする方が合理的だと判断した結果だろう。検索エンジンのデフォルト契約と同じ構図だ。
ただしプライバシー面では、Appleのオンデバイス処理ポリシーとの整合性が気になるところだ。どこまでがデバイス上で処理され、どこからがクラウド(Google Cloud)に送られるのかは、正式発表時に確認したい。
なぜ遅れたのか
新Siriは当初2025年中の投入が予想されていたが、信頼性の問題で延期されていた。
内部テストでの成功率が66%程度にとどまり、3回に1回は意図通りに動かないという状態だった。Appleとしてはこの精度でリリースするわけにはいかず、改善に時間をかけた形だ。
この判断自体は正しい。AIアシスタントは「たまに失敗する」のが最も信頼を損なう。100回使って100回成功するか、使い物にならないかのどちらかが理想で、中途半端な精度が一番困る。
Siriの競合状況
LLMベースのアシスタント市場は既に激戦だ。
| アシスタント | バックエンド | 月額 | 特徴 |
|---|---|---|---|
| Siri(新) | Gemini | 無料(iOS標準) | デバイス統合、プライバシー重視 |
| ChatGPT | GPT-5.3 | $20(Plus) | 汎用性、プラグイン |
| Claude | Opus 4.6 | $20(Pro) | 推論精度、コーディング |
| Google Assistant | Gemini | 無料(Android標準) | 検索連携、スマートホーム |
| Alexa+ | 独自LLM | $20/月 | スマートホーム、買い物 |
Appleの強みはデバイス統合だ。iPhoneの通知、メール、カレンダー、ヘルスケアデータに直接アクセスできるのは、サードパーティのチャットボットにはできないこと。
逆に弱みは「後発」であること。ChatGPTやClaudeが1年以上かけて積み上げたユーザーの学習データや使い方の定着を、新Siriがどこまで巻き返せるかが勝負になる。
開発者への影響
SiriがLLMベースになることで、SiriKit経由のアプリ連携の仕様も変わる可能性が高い。
現在のIntentsベースの連携から、より自然言語寄りのインターフェースに移行するなら、アプリ側の対応コストが変わってくる。WWDC 2026での詳細発表を待つ形になるが、iOSアプリ開発者は準備を意識し始めていい時期だ。
ユーザーが今できること
新Siriは2026年春のiOS 26.4で配信予定だが、現時点でできる準備がある。
- Siriの言語設定を確認する: LLM版Siriは日本語対応が初期段階では限定的な可能性がある。英語設定で先行利用する選択肢も
- ショートカットApp の整理: 既存のSiriショートカットがLLM版でも引き継がれるかは未確認。重要なショートカットはバックアップしておく
- Apple Intelligence の有効化: 設定 > Apple Intelligence で機能をONにしておくと、段階的にLLM機能が解放される可能性が高い
あわせて読みたい
この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。
- NordVPN

AI活用時のデータ保護に。VPNで通信を暗号化。



コメント