AI

2025.10.20 08:24

「害を与えない」ために:価値に基づく医療におけるAI導入の倫理的責務

AdobeStock

AdobeStock

デビッド・B・スノー・ジュニア氏はCedar Gate Technologiesの会長兼CEOである。

医師が医療の世界に入るとき、彼らは医学的知識を人類の利益のために使い、治療する人々の生活を向上させるという誓いを立てる。その言葉は教育機関によって異なるが、ヒポクラテスの誓いの最もよく知られた原則「まず、害を与えない」にまで遡る。

私たちは、医療コストを削減し品質を向上させるための前例のないデータとテクノロジーを利用できる。しかし、すべての医療提供者が医療におけるテクノロジーの役割、特に人工知能(AI)や生成AIに関して素早く受け入れているわけではない。

以前にも書いたように、私はテクノロジーが医療システムを変革し、誤った方向に向いたインセンティブを修正できると信じている。さらに、支払者、医療提供者、自己資金で運営する雇用主には、より良い医療をより低コストで実現するという目標を達成するためにAIを受け入れる倫理的責務があると考えている。

価値に基づく医療の世界におけるAI

価値に基づく医療(VBC)は、医療改善研究所(IHI)の「トリプルエイム」を中心に据えている。これは医療の総コスト削減、集団の健康改善、そして医療の質と満足度に対応することによる患者体験の向上を目指すものだ。VBCでは、出来高払いモデルのように医療量に結びつけるのではなく、コストと品質の目標達成に財政的インセンティブが結びついている。

今日のAI機能と将来AIが提供するであろう可能性は、VBCの目標と以下の目的に完全に合致している:

• 異なる医療データを統合することで、患者ケアと結果を改善しながら不必要な支出を削減

• リスクベースモデルにおける臨床的・財務的パフォーマンスの予測

• 潜在的リスクと患者ニーズの予測によるより積極的で個別化されたケアアプローチ

• 運用効率の合理化と医療における管理負担の軽減

• ヒューマンエラーの可能性を最小化し、手作業を制限することで、誰もが自分の資格の最高レベルで実践できるようにする

現在のAIと将来の可能性

今日利用可能なAIツールは、生活の質を劇的に向上させ、命さえも救うことができる。機械学習AIモデルは慢性疾患の発症を予測し、時間とともに学習して最もリスクの高い個人を特定する精度が向上する。予測モデルは、潜在的に予防可能な救急室訪問や避けられる病院への再入院を予測し、積極的に介入する機会を提供する。

電子健康記録(EHR)と請求データのほぼリアルタイムのデータ処理により、臨床医は患者の健康状態を正確に把握し、エビデンスに基づくベストプラクティスガイドラインを使用した臨床意思決定支援を診療時点で得られる。高度な診断機能はデータのパターンを識別し、治療がより容易で費用が少なくて済む早期段階で疾患を発見する。

AIはまた、運用コストを削減するための管理サポートも提供し、以前は相当なスタッフの時間と手作業を必要としたタスクを自動化・加速化する。データの取り込み、実装、ファイルマッピングを迅速化できる。ツールは請求処理を合理化してエラーを減らし、メモ取りや医師のチャーティングなどのタスクを自動化できる。自動化はまた、スケジューリング、予約リマインダー、事前承認の「雑務」タスクを容易にする。

生成AIとエージェントAI(次世代の開発)は、医療にさらなる進歩をもたらすだろう。より正確で効率的なAIツールは、何百もの異なるデータソースをより速く、より効率的に統合する。技術に詳しくないユーザーでも、簡単なプロンプトで分析インサイト、ビジュアル、ダッシュボードを生成できるようになる。

医療専門家は、真にパーソナライズされた医療のための治療プロトコルとケアパスウェイをキュレートしながら、分析、請求、EHRデータをシームレスに接続して、各個人の健康状態を包括的に把握できるようになる。ユーザーはまた、基本的に健全なデータとアルゴリズムを使用して、独自の予測モデルを生成できるようになるかもしれない。

最終的に、これらの高度な機能は、人間が考えもしなかった質問に答えるためのデータのパターンやトレンドを検出し、より大きな規模、スピード、精度で医薬品の発見を可能にする。また、社会的健康決定要因(SDOH)やその他のデータソースを組み込むことで、不平等に取り組むことも容易になる。

AIに関する倫理的責務:医療関係者とソフトウェア開発者

医療とその結果を改善するこれらの可能性を考えると、医療関係者がAIを避けることは非倫理的だろう。AIを安全かつ責任を持って実装することは倫理的責務であり、特に患者中心の医療システムの構築を目指すVBCの世界においてはそうである。

AIに対する反対意見は、その有効性と安全性に関するものが多い。多くのAI企業は責任ある開発について正しいことを言っているが、急速に変化するテクノロジーの世界では、すべての組織がそれらの掲げる原則とAI導入・展開の現実を一致させているわけではない。「速く動いて物事を壊す」という考え方は医療では通用しない。

なぜ一部の人々が躊躇しているのか理解できる。医療組織が未検証または非効果的なAIツールを導入した場合、その結果は悲惨なものとなっている。間違えるにはリスクが高すぎる—AIは文字通り命を救うことができるが、悪意を持って開発または展開された場合、深刻な害をもたらす可能性がある。悪質な行為者を抑制できる規制はAI開発の急速なペースに追いついておらず、責任の所在はグレーゾーンのままである。

医療AIに関する倫理的責務は開発者にも及び、以下が必要となる:

• データアルゴリズムの透明性: AIの決定と、モデルが決定に使用するデータは決して「ブラックボックス」であってはならない。ユーザーは予測、ワークフロー、推奨される治療を理解するために基礎となるデータを掘り下げる能力が必要である。

• 最高レベルのデータセキュリティ: データ侵害の防止に加えて、AI企業はオープンソースの大規模言語モデルから保護医療情報(PHI)を排除するために必要なすべての措置を講じなければならない。

• データの多様性: バイアスとエラーを排除し、疎外されたり十分なサービスを受けていない患者集団に対する不平等を悪化させるリスクを制限する。

• データガバナンスポリシー: AIのユースケースを検証し、バイアスを検出し、結果の品質を透明に評価する。これらの品質管理メカニズムはAIが安全で効果的であることを保証する。

• AIの使用に関する完全な開示: 医療提供者と患者は、AIがどのように、どこで使用されているかについて情報を得る必要があり、安全性とセキュリティポリシーまたは個人の好みに基づいてオプトアウトまたはカスタマイズする能力を持つべきである。

AIを受け入れることは、医療を改善する機会を捉えるだけでなく、倫理的な必然性でもある。医師やその他の医療リーダーは、「害を与えない」という誓いを守り、人類に貢献するようなAIの実装に向けて、先見性と誠実さを持たなければならない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事