アップルは、オープンソースのAIモデルのためのオンラインリソースであるHugging Face Hub(ハギングフェイスハブ)に、大規模言語モデル(LLM)を8つ登録した。LLMとは、生成AIアプリケーションが入力を処理し、適切なソリューションに到達するために必要な数の反復を処理を行なうために使用するデータセットだ。
LLMが大きければ大きいほど、より多くのデータを利用できるようになり、それらのデータセットがまずオンラインサービスとしてアクセスできるようにクラウド上に構築されていたのも当然だ。その一方で、LLMをモバイルデバイスで実行できるほど小さなデータにしようとするとする動きもある。
これには、新しいソフトウェア技術だけでなく、より効率的な処理が可能なハードウェアも必要になる。クアルコムやサムスン、メディアテックといったAndroid向けチップセットのメーカーは、生成AIに最適化したシステム・オン・チップのパッケージを提供している。アップルは今年のiPhone 16ファミリーで、クラウドではなくデバイス上でより多くのAIルーチンを走らせるために、次世代Axxチップセットで同じことをすると予想される。
デバイス上で動作するということは、ユーザーデータが処理されるために、アップロードされどこかへコピーされる必要がないということになる。AIのプライバシーに関する世間の意識が高まるにつれ、これはマーケティングにおいて重要なポイントになるだろう。
効率的な言語モデルのオープンソースコードに加えて、アップルはすべてのトレーニングデータ、評価指標、チェックポイントおよびトレーニング設定をオープンソース化する決定を含む、使用された技術と選択の根拠に関する研究論文を発表している。
これは、コーネル大学がアップルの研究開発チームと共同で発表した別のLLM研究論文に続くものだ。論文はデバイスのユーザーインターフェースと画面上で起きていることを理解して多数の対話操作を行うFerret-UIと呼ばれるLLMについて述べられている。該当する設定を音声で呼び出したり、視力の弱い人のためにディスプレイに表示されているものを説明するといった使用例がある。
アップルが2023年にiPhone 15ファミリーを発表した3週間後、グーグルはPixel 8とPixel 8 Proを発表した。初のAI内蔵スマートフォンを謳うそれらの端末は、モバイルデバイスでにおける生成AIの活用とその普及が急ピッチで進められていることを示すものだった。アップルはそれ以来、少なくとも公の場においては、後塵を拝している。
新技術に関する研究論文が着実に公開されていることで、アップルのAI計画は、消費者へはまだだとしても、業界には知れ渡っている。効率的な言語モデルのオープンソースコードを提供し、オンデバイス処理を強調することによって、アップルは、iPhoneのAI機能の一部のためにGeminiのライセンス供与をグーグルと交渉しているにもかかわらず、Androidを搭載した多数のAIデバイスに対して優位に立とうとする意志を静かに示している。
(forbes.com 原文)