トレーニングベースのApple Intelligence Geminiは、他のLLMのように機能します

ジャカルタ - Apple IntelligenceとSiriの最新バージョンは、Google Geminiのトレーニングによって生成された大規模言語モデル(LLM)をサポートしており、他の多くのAIツールで一般的に見られる機能を提供します。これは、Appleの内部情報源を引用したレポートによって明らかにされています。

これらの情報源は、ジェミニテクノロジーを使用してトレーニングを受けたApple Foundation Modelsが、事実上の質問に答えることや、カレンダーアプリケーションなどのユーザーデータに積極的に対応することなど、LLMの基本機能を備えていることを確認しました。この発見は、AppleがApple IntelligenceとSiriの開発の方向性をよりパーソナライズしたことを最初に明らかにしたことを考えると、実際には驚くべきことではありません。

The Informationのレポートによると、GeminiによってトレーニングされたAppleモデルは、9月から噂されている機能を実行できるようになります。これには、ユーザーのスケジュールを理解する機能が含まれます。言及された例の1つは、カレンダーに表示される交通状況に基づいて、ユーザーに空港への出発を早めるように思い出させるなど、積極的な通知です。

信頼できる情報源によると、SiriパーソナルとApple Intelligenceの発売は、2025年の延期の後、2026年春に開催される可能性が高いという。Appleは、6月に開催されるWWDC 2026で発表される多くの追加機能を準備していると考えられています。

新しい機能の1つは、Siriが以前の会話を記憶できるようにする機能であり、チャットボットのようにより多くのインタラクションを行います。この機能はiOS 27と一緒に導入され、WWDCで発表されると予想されています。さらに、Apple Intelligenceは、カレンダーで手動で「出発時間」を思い出させることなく、ユーザーに自動的に出発を警告することができるという噂もあります。

Appleのマーケティング責任者であるグレッグ・ジョズウィアクは、Siriをチャットボットにしたいとは思わないと強調したが、会話の記憶とより自然なやり取りの能力は、デジタルアシスタントの論理的な進化と見なされている。同様に、より積極的なカレンダー機能は、既存の機能の開発と見なされています。

期待されている他の機能には、会話型のSiri、リンクではなく知識ベースの回答を提供できる機能、特定の状況でより共感的な応答が含まれます。たとえば、ユーザーが孤独感や助けが必要だと感じている場合、Siriはより適切な感情的なアプローチで応答できます。

それ以外の場合、Siriはスマートホームデバイスの制御、通話、リマインダーの設定などの古典的な機能を維持します。しかし、これらの機能は、ユーザーの家族関係を推論して不完全な連絡先を管理することなど、より良いコンテキスト理解によって強化されます。

ジェミニはAppleモデルの代替品ではない

このレポートはまた、AppleとGoogleの協力関係を明確にしています。ジェミニの使用は、AppleがAIモデルをGoogleのものに置き換えることを意味するものではありません。ジェミニは、Apple Foundation ModelsをトレーニングするためにAppleのPrivate Cloud Computeインフラストラクチャ上で実行されるラベル付きホワイトトレーニングモデルとしてのみ使用されます。

このアプローチにより、AppleはLLMの品質を向上させることができ、大規模なデータを収集したり、GPUやサーバーにさらに数十億ドルを投資したりする必要はありません。ユーザーのすべてのインタラクションは、AppleデバイスとAppleサーバーの両方で、Googleの日常的な使用に関係なく、Appleテクノロジーによって実行されます。

内部テストに詳しい情報筋によると、現在のプロトタイプにはGoogleやGeminiのブランドは表示されず、ユーザーエクスペリエンスを完全に制御するAppleのアプローチに沿っています。

アップルとグーグルの協力は長期的なものであり、アップルがジェミニモデルに特定の調整を要求し、アップルのファウンデーションモデルの機能要件に適合できるようにすると考えられている。

ChatGPTへの影響

このレポートでは、ChatGPTがApple Intelligenceの強化から最も影響を受ける可能性のある当事者であると評価されています。ただし、ChatGPTのApple Intelligenceへの統合は、これまでのところ、ユーザーによってあまり使用されておらず、OpenAIに大きなトラフィックを提供していないと述べられています。

アップルは、ジェミニのトレーニングによるアップルファウンデーションモデルの能力の向上に伴い、ChatGPTへの依存がますます少なくなると予想されています。しかし、ChatGPTは完全に放棄されず、SiriやImage Playgroundを介した画像の作成や編集など、並行して動作し続けます。

画像を説明するためのビジュアルインテリジェンスなどの機能は、将来のAppleモデルに完全に移行したり、ユーザーにモデルの選択肢を提供したりする可能性があります。

近いうちに登場するSiriとApple Intelligenceは、アプリインテントシステムによってサポートされるよりパーソナルなものになります。GeminiでトレーニングされたApple Foundation Modelsの組み合わせと、必要に応じてChatGPTを呼び出す機能は、強力なAIコラボレーションでありながら、プライバシー、セキュリティ、エネルギー効率を優先できると言われています。

このレポートは、Appleの従業員が将来の計画を知っていることを引用しているが、その内容は新しいことをあまり明らかにしていないと考えられている。しかし、大きな機能のリリースが近づいているため、今後数ヶ月はAppleユーザーにとって興味深い期間になると予想されています。