(1)データの詰め込みはやめる
ChatGPTに与えるデータが多ければ多いほど、信頼できる包括的な回答が返ってくるという誤解が広くある。外部データ源から回答を引き出すRAG(Retrieval-Augmented Generation)は、この考え方を土台にしている。
実際には、データが多すぎるとモデルはかえって混乱し、ハルシネーションの原因となりうる。前述のとおり、AIは真に関連する情報を見極めるのが苦手であり、重要な情報が希釈されるため、データは多ければよいというものではない。
AIにデータを投入する前に、モデルがうまく機能するよう整理しておく必要がある。すなわち、モデルに1度にすべてを検索させるのではなく、質問を適切な情報のサブセットに振り分けるということだ。たとえば顧客がエンタープライズ契約の更新について尋ねているのに、AIが製品ロードマップのスライドやマーケティングキャンペーンのブリーフまで検索すべきではない。最も信頼できるAIシステムとは、最も多くの情報を抱えるものではなく、正しい情報につながっているものである。
(2)根拠を求める
AIのハルシネーションを減らす最も単純で効果的な方法の1つは、同時に見落とされがちな方法でもある。モデルに「根拠を示させる」ことだ。
AIが生む誤りの多くは、出典を示すことを求められないまま、自由に答えることを許しているために起きる。「検証可能な情報源のみに基づいて回答し、回答の下にその出典を列挙すること」といった指示を加えれば、推測ではなく事実に根拠づけて答えるよう求められる。ジョンズ・ホプキンス大学の研究者らは、質問を「[情報源、例:ウィキペディア]を参照して。」で始めると、選んだ情報源から直接引用するようAIに指示できることも見いだしている。
ChatGPTの「カスタム指示」フィルターを使えば、これらのパラメータの一部を検索に自動的に組み込める。How To AI(ハウ・トゥ・エーアイ)のルーベン・ハシドが、すぐに貼り付けて使えるプロンプトを公開しているが、自分の目的に合わせて簡単に修正することもできる。とはいえ完全な万能薬ではない。フィルターを使っても、作り話に遭遇することは少なからずある。それでも、できる限り具体的に指示し、根拠を求め、フィルターを加えることで、モデルが提案するでたらめな回答を減らすことは可能である。
(3)チームにAIリテラシーを教育する
ビジネスにおけるAIの失敗の多くは、技術そのものではなく人間の誤用に由来する。従業員が機密データを公共のツールにコピー&ペーストする。チームがAIの出力を検証せずに受け入れる。経営陣が安全策なしにAIを導入する。これらは必ずしもモデルの問題ではなく、リテラシーの欠如である。
研究は、AIリテラシーの高いチームがけん引する組織のほうが、AIの可能性を活かし、業務への導入を成功させやすいことを明確に示している。チームはChatGPTのようなモデルの利用を奨励されるだけでなく、ベストプラクティスについて訓練されるべきだ。AIに何ができ、何ができないのか、そして人間の関与による監督がどこで必要なのかを理解する必要がある。AIはまだ創成期にあり、いまリーダーが築く習慣こそが、今後の組織の舵取りを左右する。


