ChatGPTのベータ版は提供開始から1週間足らずでユーザー100万人を突破し、テック業界の耳目を集めた。私は3つの主要メディアと考えているニューヨーク・タイムズ、フィナンシャル・タイムズ、アトランティックに掲載されたChatGPTについての記事を読んだ。
この人工知能(AI)は、生成されるものがかなり有用でコピーライティングや顧客からの問い合わせ対応、発表文の執筆、法律文書の作成といった人間の仕事を脅かすかもしれないという可能性のもと、職場で話題となっている。
しかし実際には、大規模言語モデル(LLM)やChatGPTのような生成モデルのAIを、特に情報の信頼性が重視される職場でどう活用するかは微妙なところだ。
私はこの問題を掘り下げようと、LLMの研究をリードするスタートアップ、Hebbia AI(ヘビアエーアイ)の経営陣と会った。同社のCEOジョージ・シヴルカと、マギル大学での私の元教え子であるプロダクト開発を手がけているレイニー・ヤレンだ。ChatGPTの最近の注目度について彼らの見解を聞き、他の機械学習アルゴリズムと組み合わせての職場での活用の展望について議論するのが目的だった。
ChatGPTや他の生成モデルを仕事関連の活動に活用することを考えるとき、基本的な限界を考慮することが大事だ。
生成モデルのAIは応答を生成するが、情報源を読んだり、生成したものを引用したりすることはない。よって、生成されたものは信頼性が保証されない。
M&A取引で「この投資にともなう最大のリスクは何か」といった重要なビジネス上の質問をすると、もっともらしい回答が返ってくるが、真の情報源をともなうものでない。
アナリストがマネージングディレクターに提案したり、マネージングディレクターがクライアントに提案したりするには、より信頼性の高い、正確なシステムが必要だ。情報源を掘り下げることができ、企業の最も重要な質問に対して提供する答えに自信を持てるようにする必要がある。
生成モデルを仕事で使用するには、これらのモデルに事実や引用情報を与え、回答が推論ではなく、調査に基づいて行われるようにすることが重要だ。
検索者の意図や目的を理解して検索を行うセマンティック検索モデルは、実際に情報源を読み込んで検索を行うためにLLMを適用する。
LLMの応用の1つはChatGPTのような生成モデルのAIだが、LLMはHebbiaのようなセマンティック検索にも適用することができる。