その理由は、著名ブロガーのジョン・グルーバーが司会を務めた「Talk Show Live From WWDC」で明かされた。ゲスト出演したアップルの役員であるジョン・ジャンナンドレアは、同社がApple IntelligenceをiPhone 15 Proと15 Pro Maxに限定した背景について、次のように語った。
「大規模言語モデル(LLM)の推論には、信じられないほどの計算コストがかかる。ユーザーが有用と感じるほどモデルを高速に実行するには、デバイスの帯域幅やニューラルエンジンのサイズ、デバイスのパワーが条件となる。非常に古いデバイスでもこれらのモデルを実行することは理論的には可能だが、あまりに遅いため役に立たない」と彼は説明した。
アップルはこれまで、iPhoneのメモリ容量を可能な限り小さく抑えてきたが、このことはiOSがAndroidよりも優れている点の1つだった。iPhoneは、ソフトウェアとハードウェアを緊密に統合しているため、iOSのフットプリントを大幅に最適化することができた。これに対し、Androidは多くの異なるチップセットやI/Oデバイスで動作する必要があり、より多くのメモリが必要だ。
しかし、生成AI機能を搭載したスマホが普及し始めた今、この違いはAndroid端末に対して有利に働いている。メモリ容量の大きさは、生成AIをローカルで処理するのに役立つからだ。一方で、アップルは昨年のフラッグシップモデルよりも古いiPhoneにAIスイートをバックポートすることはできない。サムスンは同社の生成AI機能である「Galaxy AI」を最新型のGalaxy S24シリーズだけでなく、旧モデルのZ Fold 5やZ Flip 5、Galaxy S23シリーズでも利用可能にしている。
とはいえ、サムスンもそれ以上は遡ることができない。その理由は、メモリだけが制約要因ではない。生成AIによる出力を許容可能な時間で達成するには、かなりの処理能力を必要とする。クアルコムのSnapdragon 8シリーズを1世代遡ったことはすばらしいが、他の主要なAndroidチップセットメーカーと同様、クアルコムもAIの展開を支援するために必要なハードウェアを現在のチップセットに追加している。