ヘルスケア

2025.12.11 10:52

医療費の無駄を防ぐ:エージェンティックAIがもたらすヘルスケア公正性の新時代

stock.adobe.com

stock.adobe.com

アンバー・ニガム氏は、ハーバード発のスタートアップbasys.aiのCEO兼共同創業者で、同社はエージェンティックAIを活用して健康保険プランの事前承認プロセスを効率化している。

2023年、米国はヘルスケアに4.9兆ドルを費やし、これは国内総生産のほぼ5分の1に相当する。しかし、全米ヘルスケア不正防止協会の推計によると、「数百億ドル」が毎年不正により失われている。この損失は予算を圧迫するだけでなく、医療の手頃さとアクセスを損なっている。防げるはずの1ドルの損失は、保険適用範囲の拡大、保険料の引き下げ、あるいはコミュニティプログラムの拡充に使えるはずのものだ。

何十年もの間、不正と無駄との戦いは、資金が動いた後の事後対応であることが多かった。監査人や調査官は、サービス提供後に請求を追跡するため、回収が遅れ、支払者と医療提供者の間に摩擦が生じることがある。その結果、患者は保険料の上昇やネットワークの縮小という形で負担を強いられることが多い。

しかし、このパラダイムは変わり始めている。文脈を認識し、監査可能で、人間の監視によって導かれるエージェンティックAIシステムは、公正性の確保を取り締まりからパートナーシップへと転換する可能性を秘めている。ヘルスケア向けエージェンティックAIソリューションを提供する企業のCEOとして、AIが連邦および民間の支払者が無駄を防ぐのにどのように役立つかを目の当たりにしてきた。

エージェンティックAI:実現を可能にする層

エージェンティックAIは、ヘルスケア内でインテリジェントシステムが機能する方法の進化を表している。従来の自動化は事前に定義されたルールを実行する。対照的に、エージェンティックシステムは文脈の中で推論する。ポリシー、臨床的エビデンス、患者データを同時に解釈できるのだ。

その真の強みは自律性ではなく、協調性にある。エージェンティックAIは、臨床医、監査人、コンプライアンスの専門家がどのように意思決定を行うかを観察することで、人間の監視から継続的に学習し、その教訓を将来のケースに適用する。それは判断を置き換えるのではなく、強化する実現層として機能する。適切に行われれば、これは拡張された説明責任のモデルを確立するのに役立つ。システムがエビデンスを表面化し、人間がそれを検証し、両者が時間とともに改善していくのだ。

しかし、そのバランスは保証されていない。厳格なガバナンス、データの出所、継続的なレビューがなければ、これらのシステムはバイアスを定着させたり、エラーを増幅させたりする可能性がある。責任を持って展開する必要がある。そうすることで、エージェンティックAIは反復的なチェックの認知的負担を軽減し、専門家が複雑な推論やケアに影響を与える決定に集中できるようにするのに役立つ。時間の経過とともに、透明で説明可能な意思決定支援を標準とすることで、公正性の基盤を高めるのに役立つ。

上流へ移行:支払後から支払前の公正性へ

前述したように、私が観察したところでは、ほとんどの支払公正性プログラムは回顧的なものだった。しかし、数カ月後に特定された不適切な支払いは、管理上の負担を生み出し、医療提供者の信頼を損なう。米国政府説明責任局の推計によると、主要プログラム全体での不適切な支払いは、2024年だけで1600億ドルを超えた

ヘルスケア組織はエージェンティックAIを活用して、予防とリアルタイム検証に向けた上流へのシフトを可能にすることができる。

1. 支払前の異常検出:AIモデルを使用して、資金が支払われる前に、関連するチャートデータとポリシーロジックと共に請求を確認できる。システムが重複する処置や不足している文書などの不整合を発見すると、自動的な拒否ではなく、迅速な臨床レビューをトリガーできる。問題のない請求はより速く処理され、疑問のある請求はタイムリーな説明を受ける。

2. リスク調整の検証:エージェンティックAIは、慢性疾患コードが医療記録のエビデンスによってサポートされていることを確認し、医療提供者にエントリの確認または修正を促す。これにより、支払者のリスク調整データ検証(RADV)のリスクを軽減し、リスクスコアが患者の複雑さを正確に反映することを確保できる。

3. ネットワークレベルの異常マッピング:医療提供者識別子、請求履歴、紹介パターンなどの異なるデータセットをリンクすることで、AIは共謀やIDの不正使用の微妙な兆候を明らかにすることができる。

これらのユースケースを合わせると、ヘルスケアの公正性の根本的な再設計が示される。焦点はもはやドルを取り戻すことではなく、最初から正しく支出されることを確保することにある。

政策の風向きが変わる

技術だけでは連携は生まれない。政策がガードレールを設定する。規制の変化は、CMSと全米品質保証委員会(NCQA)がリアルタイムでそれらのガードレールを構築していることを示している。例えば:

• CMS:同機関は、AIイニシアチブに関するガイダンス、ツールなどを提供する「人工知能プレイブック」を開発した。

• インフレ削減法:2026年に発効する薬価交渉条項は、透明でエビデンスに基づくコスト管理への推進を示している。

• NCQAのデジタル品質と責任あるAIイニシアチブ:これらの取り組みは、ヘルスケア運営における責任あるAI使用に関する業界のコンセンサスを発展させることを目指している。私の会社を含む30以上のヘルスケア組織がNCQAのAIステークホルダーワーキンググループに参加している。

これらの追い風が合わさって、トレーサビリティ、一貫性、公平性に報いる政策環境が生まれると私は考えている。

可能性とリスクのバランス

AIの潜在的な利点は明らかだが、リスクも現実的だ。偽陽性は正当な請求を遅らせる可能性がある。バイアスのあるトレーニングデータは不平等を永続させる可能性がある。統合のギャップは文脈を不明瞭にする可能性がある。例えば、請求とポリシーデータがサイロ化されている場合、AIモデルは事前承認や投薬履歴などの文脈を見逃す可能性がある。これらのブラインドスポットは、誤分類や不完全な推奨につながる可能性があり、相互運用性と共有データ標準が信頼性の高い結果に不可欠となる。

臨床医、コンプライアンスチーム、技術者が継続的にモデルを監査し改良する持続的なガバナンスが不可欠だ。効果的なガバナンスには、四半期ごとの監査、人間の監視、明確なエスカレーションプロトコル、説明責任、透明性、規制への準備を確保するための機能横断的な委員会が必要だ。

最終的に、ヘルスケアのリーダーは、エージェンティックAIがブラックボックスの権威ではなく、支援技術であり続けるべきことを忘れてはならない。

警告と新たな方向性

ヘルスケアは変革を約束しながら不透明さをもたらした技術の波を見てきた。初期の予測モデルは説明責任を上回ることが多く、保険プランと医療提供者の間の信頼を損なった。今回は違うものでなければならない。透明性を持って構築され、臨床的に検証されれば、エージェンティックAIは効率と共感を調和させ、公正性の仕事をゼロサムの演習から公平性の共有追求へとシフトする第二のチャンスを提供するかもしれない。

ヘルスケアの公正性における静かな革命は見出しにはならないだろう。それはより迅速な決定、より少ない紛争、そしてシステムが誠実に運営されているという回復された信頼の中で展開されるだろう。技術が人間から学び、より高い精度で行動するのを助けるとき、AIは破壊者ではなく橋渡し役となる。

そして、それこそが静かに最も強力な改革の形なのだ。

この記事はCEO兼共同創業者のアルパン・サクセナ氏(フォーブス・ビジネス・カウンシルのメンバー)と共同執筆された。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事