AI

2026.03.10 09:58

製薬AIの盲点は技術的課題ではなく「信頼」の問題だ

AdobeStock

AdobeStock

私は人工知能に関わる仕事に多くの時間を費やしているが、常にある矛盾に気づかされる。一方では、AIは驚くほど流暢になった。難解な資料を要約し、膨大なデータセットから洞察を引き出し、専門家のような自信に満ちたテキストを生成できる。しかし他方では、正確性が最も重要な領域において、AIは実際の意思決定についてほとんど何も理解していないのだ。製薬業界におけるエビデンス生成は、まさにそうした領域の一つである。

構造的な盲点

医療分野におけるAI活用への期待が何年も続いているにもかかわらず、規制当局への申請や保険償還に対応できる「生きた」エビデンスを自律的に維持・管理するシステムは、いまだ広く普及していない。これは技術的なギャップとして語られることが多い。しかし私の経験では、これは単なるギャップではなく、容易には解消できない構造的な盲点である。そこには、規制対象のエビデンスとは実際に何なのか、そして今日のAIシステムが何のために設計されているのかという根本的な誤解が潜んでいる。

システマティックレビューは要約ではない。後から投げかけられた質問への回答でもない。厳密に統制されたプロセスに従う。あらかじめ定めたプロトコルから始まり、採用・除外基準の透明性が求められ、元の分析が完了した後も長期にわたって精査に耐えなければならない。規制当局や保険者は、どのような結論に達したかだけを問うのではない。その結論がどのように形成されたか、途中で何が除外されたか、レビューを再度行った場合に同じ判断がなされるかを問う。彼らは、それらの判断がどのようになされたかを理解する必要がある。

ここに、より優れたプロンプトや大規模モデルでは解決できない、対話型AIシステムの本質的な限界がある。大規模言語モデルは、トレーサビリティ(追跡可能性)ではなく、もっともらしさに最適化されている。各判断の背後にある推論の軌跡を保持するのではなく、もっともらしい応答を生成するよう設計されているのだ。エビデンスを説得力ある形で説明することはできても、なぜある研究が別の研究より重要だったのか、あるいは特定の時点で境界線上の試験がなぜ除外されたのかを、確実に説明することはできない。腫瘍学のように文献が絶えず更新される分野では、そうした不整合は蓄積していく。

エビデンスレビューを「スピードアップ」するためにチャットボットを使おうとしたチームが、いったんは効率的に見えたものが精査に耐えられないことにすぐ気づく、という事例を私は何度も見てきた。問題は、チャットボットのモデルが未熟だからではない。タスクそのもの、つまりシステマティックレビューの「肝」が、生成的な性質のものではないのだ。その肝は、手続き的で、監査可能で、説明責任を果たせるものでなければならない。

同時に、常に更新される「生きた」エビデンスを維持しなければならないプレッシャーは、かつてないほど高まっている。臨床データはもはや整然としたサイクルで届くわけではない。ガイドライン更新の合間に新しい試験が登場する。規制当局の判断によって比較対象が変わる。保険者は、元のレビューが書かれた時点では存在しなかった質問を投げかけてくる。静的なエビデンスでは、もはや対応しきれないのだ。

これが奇妙な膠着状態を生み出している。完全に手作業のプロセスは遅すぎて、リソースも食いすぎる。完全に自動化されたプロセスは信頼できない。多くの組織は、他の分野ではAIに多額の投資をしながらも、この摩擦を黙って受け入れている。

設計の転換

この膠着状態を打破するのは、より優れたAIではなく、仕事の設計方法を変えることである。

規制環境においてスケールする唯一のアプローチは、ヒューマン・イン・ザ・ループ型のインテリジェンスだ。機械は得意なこと、すなわち継続的な監視、構造化された抽出、パターン検出を担い、人間が判断、解釈、説明責任の主導権を保持する。適切に設計されれば、これはチームの作業を遅くするものではない。ただし、専門知識が適用される場所は変わる。

多くのリーダーが驚くのは、この課題が製薬業界に特有のものではないということだ。数年前、私は民間航空業界の幹部と話をしたことがあるが、彼も同様の緊張関係について語っていた。現代の航空機は驚くほど自動化されている。人間の介入を最小限に抑えて離陸し、複雑な空域を航行し、着陸することができる。しかし航空業界は、パイロットをコックピットから排除しようとしたことは一度もない。実際、自動化が進むにつれて、パイロットの訓練は緩むどころか、より厳格になっている。

理由は信頼である。高度3万5000フィートで何か問題が起きたとき、「システムがそう判断した」という説明は誰も受け入れない。自動化には支援が期待されており、免責は期待されていない。人間による監視はフォールバック(代替手段)ではなく、システムの信頼性の一部なのだ。

エビデンス生成も同様である。規制当局がAIを拒否するのは、それが新しいからではない。不透明さを拒否するのだ。彼らはどこで誰が判断を下したかを見たいと考えている。その境界を曖昧にするシステムは、出力がいかに見栄えしても、信頼を損なう。

組織を阻むものは何か

このようなハイブリッドシステムの構築を組織が躊躇する理由は、技術的な問題であることはまれだ。それは文化の問題である。ほとんどの企業は、継続的な管理を必要とする「生きた」資産ではなく、明確な終点を持つプロジェクトを中心に組織されている。エビデンスは維持すべきインフラではなく、納品すべき文書として扱われている。AIの取り組みは、年々静かに摩擦を減らしているかどうかではなく、目新しさと注目度で評価される。

これを変えるには、リーダーシップの自制が必要だ。デモでは見栄えがするが後で正当化できないツールを導入する誘惑に抵抗することを意味する。また、ガバナンス、ワークフローの再設計、部門横断的なオーナーシップへの投資も必要だ。これらはどれも見出しにはならないが、AIが真の価値を生み出すかどうかを決定するものである。

AIと規制対象の意思決定の交差点で働く中で私が学んだ最も重要な教訓はこれだ。流暢さは信頼性と同義ではない。AIで成功する組織は、最も速く回答を生成する組織ではなく、重要な場面でその回答を説明し、責任を持って支えられる組織である。

製薬業界でも航空業界でも、インテリジェンスはそれが獲得する信頼と同じだけの価値しかない。だからこそ、指揮命令系統の中に人間がいることが必要なのだ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事