製品

2025.10.24 08:00

アップルがM5で始める”使えるオンデバイスAI”の時代

自社チップM5を搭載したMacBook Pro、iPad ProそしてVision Pro

ユーザーにとっては、制作をMacで詰め、レビューをiPadで行い、空間での確認をVision Proに任せ、モバイルではiPhoneを活用するといったストーリーを描きやすい。どのプラットフォームでも共通にアクセスできる機能として設計できるためだ。

advertisement

こうしたエコシステムは、M1から始まった時と同じように、AI活用によるアプリケーション開発を促すだろう。競合他社が簡単には真似できない、アップルの構造的な強みだ。

“AI時代にフォーカスしたチップ”の核心

M5では、iPhone 17シリーズに搭載されたA19チップに盛り込まれた内容がそのまま取り込まれている。すなわちAI向けという意味では、各GPUコアに専用のニューラルアクセラレーターの導入が改良の核心だ。

わずか一年前に発表したM4と比較して、GPUのAI処理スループットは2〜4倍になっている。これまでもAI処理はNeural Engine、CPU、GPUという3つの異なる処理ユニットに分散されていた。

advertisement

しかしNeural Engineは最もエネルギー効率が高いが、汎用性に欠ける。CPUは柔軟だが、並列処理には向かない。GPUは並列処理に優れているが、AI処理に特化していなかった。

しかしGPUにニューラルアクセラレーターを統合したことで、画像生成AIなどGPUが得意なAIワークロードで速度が向上するとともに、劇的に電力効率も高まる。

すでにメディア処理のさまざまな部分でAIの活用が進んでいるが、さらに今後も深化が進んでいく中で、それら“重たい(電力も消費する)”処理の効率化が進み、少ないバッテリー消費でAI処理がこなせるようになる。

また、推論に特化した処理はNeural Engineで高効率で回し、空間の把握や画像生成などはGPU内アクセラレータで並列性を活かし、前処理やユーザーインターフェイスの最適化制御などはCPUで柔軟に扱う。

こうした役割分担はOSの中で吸収され、オンデバイスでのAI処理に関する待ち時間が消されていく。

AI処理以外にも多くの改良が施されており、たとえば第二世代のダイナミックキャッシングGPUアーキテクチャも、電力効率を高めるなど細かな改良が進んでいる。この機能は実行時にGPUメモリを動的に割り当てることで、メモリ使用効率を大幅に改善するものだが、新しいアルゴリズムに更新することで処理効率が高まり、結果的に消費電力が抑えられる。

AIワークロードで重要になるメモリ帯域対策

ユニファイドメモリの帯域幅が153GB/sに達し、前世代から約30パーセント向上した。メモリインターフェイスのクロックを高めたものだが、AI向けという意味ではチップ全体に“燃料を供給”する役割を果たす。

メモリ帯域は処理回路が必要とするデータ、出力するデータの両方で使うため、ここにボトルネックがあると処理能力を生かせない。従来からのセオリーだが、AIワークロードでは大量のデータを参照しながら処理を続けるため、よりメモリ帯域への依存度が高い。

次ページ > アプリケーションベンチマークの数字が語る現実

編集=安井克至

タグ:

advertisement

ForbesBrandVoice

人気記事