「コンテキスト」とは? またその不足とは?
Twofold Health共同創業者のガル・スタインバーグCEOによれば、多くのAIの失敗の核心にある問題は「コードの不具合」ではなく、「コンテキストの不足(Context Starvation)」だという。
「AIモデルは、パターンしか見ておらず、その背後にある目的・暗黙のルール・人間の感情といった『コンテキスト(文脈)』が見えていない」と彼は語る。「AIモデルは、言葉やクリック率といった指標を完璧に評価できても、医療現場を動かしている規則や業務フロー、暗黙の了解といった、より広い『コンテキスト』には気づけない。設計者・開発者・マネージャーといった人間が、そうした制約や倫理・慣習を考慮せずに「最適化目標(KPI)」を設定した場合、AIは数値目標を達成しても、本来果たすべき使命を見失ってしまう」。
コンテキストの定義
スタインバーグはコンテキストを「スプレッドシートで省略している、すべての要素」だと定義する。「そこには、プロジェクトの目標、AIに対する制約(法律・規制・業務手順・倫理上の指針)、業界の専門用語、ユーザーの感情、コンプライアンス規則、タイミングなどが含まれている」。
AIツールがミスを犯すのは、多くの場合、コンピューティングのパワーが足りないといった能力不足ではなく、情報不足による場合が多い。人間のチームであれば当然のように理解している文化的な理解、専門的なニュアンス、いつ何が起こったのかという時間(タイミング)についての認識が欠けている。
たとえば、医療セラピーにおける90秒の沈黙が発生したタイミングについて、AIは単に「90秒の無音」という事実として処理する。一方人間の医師は、どのようなタイミングで沈黙したのかを認識し、患者の状態を示す重大なサインと判断する可能性がある。また財務報告であれば、金融業界において記載が義務づけられている略語の欠落は不正の兆候を示すサインとなるが、一般的な言語で訓練されたモデルがそれに気づくのは難しい。
だからこそ、Twofold Healthでは、こうしたコンテキストを把握するために、シンプルな質問を投げかけているという。「誰がその場にいるのか? 彼らは何を達成しようとしているのか? そして、間違えたときには何が起こるのか?」。
もう1つの大きな問題は、多くの企業がコンテキストを「一度アップロードすれば済むもの」と考えている点だと彼は指摘する。しかし、ルールや要件は常に変化するものだ。「プロンプトや訓練データを常にアップデートしなければ、AIは道を外れる」とスタインバーグは語った。
そして、多くの企業が訓練内容やコンテキストを更新しなかったため、初期のAIプロジェクトの多くが現場の変化に対応できなくなり、結局使われずに放置されているという。米国を代表するシンクタンク、ランド研究所によれば、AIプロジェクトの80%以上が失敗または停滞しており、その原因の多くは、モデルが機能しないからではなく、「モデルが訓練されたコンテキスト」と「実際に投入された環境」がもはや一致していないからだという。つまり、AIが表面上は正しく見えても実際には機能しない、「間違った芝居に出てしまった俳優」のようになっている。


