AI

2024.01.12 09:00

「マルチモーダルAI」「小規模言語モデル」2024年の生成AI重要トレンド

LLMは「Common Crawl」や「The Pile」のような巨大なデータセットで訓練される。これらのデータセットを構成する何テラバイトものデータは、一般公開されている何十億ものウェブサイトから抽出されたものだ。これらのデータは、LLMが意味あるコンテンツを生成し、次の単語を予測できるよう訓練する上で確かに有益だがノイズが多い。これは、一般的なインターネットコンテンツをベースにしていることに起因する。

一方、小規模言語モデルは、教科書や学術誌、権威あるコンテンツといった高品質な情報源から成る限定的なデータセットで訓練される。これらのモデルは、パラメータ数だけでなく、必要なストレージやメモリも小さいため、パワフルで高価なハードウェアを必要としない。LLMに比べると数分の1サイズであるにもかかわらず、一部のLLMと同等のコンテンツを生成できる。

マイクロソフトの「PHI-2」と、ミストラルの「Mistral 7B」は、次世代生成AIの原動力となる有望なSLMだ。

各社は、SLMを微調整し、特定のタスクや特定領域の機能に対応させることができる。その結果、法律や規制の要件を満たすことができ、言語モデルの採用が加速するだろう。

自律エージェントの台頭

自律エージェント(Autonomous Agents)は、生成AIモデル構築の革新的な戦略だ。自律エージェントとは、特定の目的のために設計された自律的なソフトウェアプログラムのことだ。

生成AIの場合、人の介入なしにコンテンツを生成する自律エージェントの能力は、従来のプロンプトエンジニアリングに関連する制約を超えることができる。

自律エージェントの開発には、高度なアルゴリズムと機械学習技術が使用される。自律エージェントは、データを使って学習し、新しい状況に適応し、人がほとんど介入することなく意思決定を行う。例えばOpenAIは、自律エージェントを効果的に利用するカスタムGPTなどのツールを開発しており、AI(人工知能)分野の大きな進歩が示唆されている。
次ページ > オープンモデルがプロプライエタリモデルと同等に

翻訳=米井香織/ガリレオ

タグ:

ForbesBrandVoice

人気記事