7. メタはLlama 2モデルをAWSでも利用できるようにしている。顧客は Amazon SageMaker Jumpstartを使ってデプロイし、推論を実行することができる。Llama 2モデルは、AWSのus-east 1地域とus-west 2地域で即時利用可能だ。
8. クアルコムは2024年初頭にSnapdragon搭載のモバイルデバイスやデスクトップにLlama 2モデルを提供すると発表した。これにより、小さいデバイスでも生成AIの力が使えるようになる。
9. メタは、他のオープンソースモデルや商用モデルと比較して、Llama 2が最高のパフォーマンスと精度を提供すると主張している。現在、Hugging Faceが保持しているオープンな大規模言語モデルのリーダーボードでトップを占めている。
10. Llama 2モデルは、https://llama2.aiおよびhttps://replicate.com/replicate/llama-7bからすぐにアクセス可能だ。前者はアンドリーセン・ホロウィッツ(a16z)が開発・ホスティングを行い、後者はAIモデルのデプロイと実行を行うプラットフォームReplicateが提供している。
(forbes.com 原文)