AIはすべての問題を解決する。いつかはそうなるかもしれないが、現時点ではこの方向に向けられている主張は一部誇張されており、その議論の一部は(時に不当かつ検証なしに)現在のAIハイプサイクルを煽っているだけかもしれない。
MITによるAI分析
MITのNanda(Networked Agents & Decentralized AI)プロジェクトの研究によると、汎用AIの採用は80%以上の組織がOpenAIのChatGPTやMicrosoft Copilotなどのツールを導入していることに反映されており、一部は大規模に展開している。しかし、これらのAIモデルは普及しているものの、組織全体の変革ではなく個人の生産性にのみ焦点を当てている。一方、エンタープライズグレードのAIツールはあまり広く実装されていない。同じMIT Nandaの調査では、エンタープライズAIの失敗の原因を、脆弱なワークフロー、文脈学習の欠如、日常業務との不整合に帰している。
一部の緊張関係はあるものの、IT業界自体は実際のビジネス運営にAIアクセラレーターを適用する取り組みに懸命に取り組んでいる。実務のソフトウェア開発者、データサイエンティスト、支持者たちが述べているように、成功裏に展開されているAI実装は多種多様だが、成功と失敗を分ける要因は何だろうか?
個人の生産性向上はビジネス上の利益をもたらすが、AIの真の価値は目的に特化したエンタープライズグレードのAIツールにあるのかもしれない。これは検索、分析、可観測性、ベクトルデータベースソフトウェアのためのベンダー中立コミュニティであるOpenSearch Software Foundationのエグゼクティブディレクターを務めるビアンカ・ルイス氏が述べた意見だ。
「AI導入と実装を妨げる問題を防ぐために、IT責任者はビジネスデータを活用して戦略を形成する必要があります。ベクトル検索と検索拡張生成(RAG)は、ビジネスデータをより構造化し、エンタープライズモデルと実行の間の断絶に対処(および修正)するための重要なAIワークフローツールとして浮上しています」とルイス氏はオープンソースのプレスおよびアナリストセッションで述べた。
魅力的な(必須の?)補助技術
ルイス氏はRAGについて言及した。RAGは約18カ月前に私たちが経験した生成AI技術ブームの愛されるアドオンとして急速に台頭した。依然として高い適用性を持ち(一部では必須とされる)、ドメイン固有(あるいはビジネス固有、さらには部門固有)の小規模言語モデルのコンテキストを大規模言語モデルの広い世界に取り入れる手段として、RAGを軽視すべきではない。
この分野を追ってきた人なら誰でも知っているように、RAGはより具体的に整合されたエンタープライズデータを使用して、AIモデルやエージェントに関連情報を供給し、生成される応答の品質を向上させる。クエリの時点でこの「より細かく調整されたデータ」を組み込むことで、RAGアーキテクチャはAI出力の関連性と事実の正確性を高めることができる。RAG搭載モデルは、イライラするようなハルシネーション(幻覚)を減らし、文脈的に関連する情報に基づいた応答を提供できる。
OpenSearchのルイス氏は実用的な例を提供している。彼女は銀行サービスに登場する顧客サービスAIエージェントを想像するよう求めている。最近Pegasystemsが構築したもののように、この技術はRAGアーキテクチャを使用して組織の特定のニーズに基づいた特殊なワークフローを構築する。このシナリオでは、新規口座開設、クレジットカード支払い、最近の請求に対する異議申し立てなど、カスタマイズされたワークフローが含まれる可能性がある。コアトレーニングデータだけでは、このモデルはユーザーとの会話でソリューションやワークフローを幻覚する可能性があり、体験が非個人的で非効率的になり、ユーザーや顧客にとってリスクを伴うものになる可能性がある。
RAGから富へ
「しかし、現在のワークフロー、銀行資産、過去のクエリのデータベースを検索するRAG層と統合すると、アシスタントはユーザーの質問に基づいて新しい関連プロトコルを取り込み、それらを自然言語で説明することができます。RAGは、組織内の非構造化データを集約して構造化する「高速データ層」によってバックアップされるべきです。RAGアーキテクチャはクエリ時にこれを解析できます。これがRAGの働きです。RAGは、モデル結果を適切で有用なビジネスコンテキスト内に位置づけることで、エンタープライズAIの導入と成功の間のギャップを埋めます。組織のAIインフラストラクチャに組み込まれると、RAGは正確で迅速、かつ文脈的に価値のある回答を大規模に提供します」とルイス氏は説明した。
注:ここで言及されている高速データ層は、より広範なデータアーキテクチャの基本的な部分として説明できる。これは高速のリアルタイムデータ(多くの場合、膨大なデータセット全体)を処理し、情報が時に「追加のみ」のステータスまで不変であるストリーミングサービスを提供する。
ベクトル検索とインテリジェントな検索
ルイス氏は銀行の例を拡張し、この銀行が世界最大級の銀行の一つで、毎日何千人ものユーザーが組織のAIアシスタントにクエリを行っていると想像するよう求めた。銀行でRAGを効果的にするには、AIモデルの検索側面が効率的で、単純なキーワードを超えて検索できる必要がある。
ここでベクトル検索の登場だ…
「ベクトル検索システムは、文書、画像、コードスニペットなどを含むデータを高次元の埋め込み(ベクトル)に埋め込みます。何千もの自然言語クエリをベクトルに埋め込むことができます。それらの類似性は、無関係な応答を生成したり重要な情報を取得できなかったりする可能性のあるキーワードではなく、ベクトル空間での近接性によって測定されます。言い換えれば、類似したクエリはベクトル空間に埋め込まれると「より近く」にあります。この意味的な「距離」の測定により、AIエージェントは知識内の関連する質問を見つけ、それらのベクトルを使用してユーザーに対してニュアンスのある回答を提供できます」とルイス氏は説明した。
意味的に認識する検索
これらすべてが意味的に認識する検索機能へと私たちを前進させる。「401kなしで退職のために貯蓄する方法」を検索するユーザーは、使用する正確な単語がクエリに含まれていなくても、関連するリソースを見つけることができるかもしれない。このクエリが与えられると、RAG強化エージェントは、元のクエリで具体的に言及されていなくても、高利回り貯蓄口座の結果を返す可能性がある。インテリジェントで正確なAIプログラムを作成しようとする組織にとって、RAGとベクトル検索はその戦略を向上させることができると広く主張されている。
「現代の職場では、知識はメール、文書、チャット、内部ウィキ、データベースなどに分散しています。適切な情報を見つけることは、構造の欠如により、多くの場合、時間がかかり非効率です。RAGとベクトル検索を組み合わせることで、その問題を解決し、企業向けのAIワークフローを強化します」とルイス氏は述べた。「内部文書やコミュニケーションをベクトルデータベースに埋め込むことで、組織はコンテキストを理解し、最も関連するコンテンツを即座に取得できるインテリジェントなアシスタントを装備できます。クライアントミーティングの準備をしている営業担当者、最新のブランドガイドラインを探しているマーケター、システムアーキテクチャ図を見つけようとしているエンジニアなど、これらのシステムはキーワードだけでなく意図を理解するパーソナライズされた検索エンジンとして機能します。」
彼女は、業界が見てきたように、ChatGPTなどの汎用AIモデルは個人の生産性向上に人気があるが、企業全体のAI採用はビジネスニーズとの整合性が悪いため停滞することが多いとアドバイスしている。RAGとベクトル検索アーキテクチャを導入することで、企業はこのギャップを埋めることができる。AIスタックのこれらの層は、不足しているビジネスコンテキストを提供し、出力を組織の知識に根付かせ、AIシステムが正確で関連性が高く、実行可能な結果を大規模に提供できるようにする。
(インテリジェントな)前進の道
ルイス氏は前進の道に何を見ているのか?彼女はRAG強化システムへの移行は、AIが構築・展開される方法における「より広範な変化」を表していると言う。もはやモデルだけの問題ではなく、「すべてはそのインフラストラクチャに関するもの」だと彼女は主張する。組織はインデックス作成パイプライン、検索エンジン、インテリジェントに埋め込まれたデータを含む、スケーラブルで安全かつカスタマイズ可能なスタックを必要としている。
「この変化により、組織は関連するビジネスデータを常に最新の状態に保つ、文脈に根ざしたAIエージェントを持つことができるようになると主張されています。従業員も、AIを執筆、コーディング、調査の出発点としてではなく、Slackメッセージに含まれる情報に至るまで、同僚のような会社知識を持つ個別化されたインテリジェントなアシスタントとしてより活用するようになるでしょう。結果は?より賢く、より機敏な組織です」とルイス氏は結論づけた。
AIが汎用ツールから専門的なコパイロットやアシスタントへと進化する中で、RAGとベクトル検索の組み合わせは、多くの企業にとって基盤となっている。これらの技術により、システムは実世界のコンテキストから学習し、リアルタイムの知識を取得し、より正確で信頼できる出力を提供できるようになる。データへの依存度が高まる業界において、データソースの出所、現代ITスタック内でこれらの情報源が通過するパイプのサイズ(と形状)と速度、そしてそれらが最終的にどこに向けられチャネリングされるかについて、より明確に把握することが重要だ。



