AI

2025.12.13 23:08

医療AI規制の最新動向:透明性、保険決定、州法の断片化

stock.adobe.com

stock.adobe.com

David Talby博士(MBA)、John Snow LabsのCTO。AIとNLPを活用して医療、ライフサイエンス、関連分野の実世界の問題を解決している。

医療AIの加速に伴い、それを統制する法律も進化している。

放射線科医のアシスタントから患者向けチャットボット、アルゴリズム駆動の保険判断まで、AIの活用は患者の医療体験のほぼすべての部分に及んでいる。しかし、導入にはリスクが伴う:バイアス、透明性の欠如、患者の安全性、規制の不確実性などだ。

これに対応して、米国では医療AI分野に焦点を当てた法制化の動きが活発化している。年末が近づく中、いくつかのトレンドが浮かび上がってきており、今後12〜24カ月間に予想されることを示す3つの主要分野が明らかになっている。

1. 透明性とインフォームドコンセント

2025年における最も顕著な法制化の動きの一つは、医療機関がAIの使用を開示し、インフォームドコンセントを取得し、人間の関与が見える形で維持されることを確保する要件だ。

例えば、Morgan Lewisの調査によると、複数の州で患者がAIシステムと対話している場合、それが人間ではなくAIであることを伝えることが義務付けられている。ユタ州法HB 452では、メンタルヘルスチャットボットが対話の開始時点でAIシステムであることを明確に開示することを義務付けている。

患者が人間と話していると思っている相手が実際にはAIである場合、または診断の提案が臨床医の知識なしに不透明なアルゴリズムから生じる場合、信頼の低下や悪影響のリスクが高まる。立法府はそれに応じて対応している。

透明性が複数の州で規制要件となる中、医療AIを導入する組織—そしてその技術を作成するAIベンダー—は以下を確保することでコンプライアンス体制の一部として扱う必要がある:

• 患者向けまたは臨床現場でのAI対応サービスやツールには明確な開示が伴うこと。

• 診断、治療計画、患者とのやり取りでAIシステムが使用される場合、同意(または承認)の文書化が行われること。

• 必要に応じて、人間の臨床医がAIの出力をレビューまたは監督したことを示す監査証跡が存在すること。

• ベンダーの成果物に透明性機能が組み込まれていること(例:「この推奨はAIによって生成されました」、または「あなたは現在チャットボットと対話しています」)。

2. 保険および補償決定におけるAI使用の規制

AIが支払いの場面に組み込まれるにつれ、規制リスクも高まっている。そのため、州の立法者が健康保険におけるAI—特に利用審査、事前承認、医学的必要性の判断—に関する懸念に対応していることは驚くべきことではない。

Morgan Lewisの調査によると、アリゾナ州、メリーランド州、ネブラスカ州、テキサス州を含む複数の州が、医療補償の意思決定プロセスにおけるAIの使用を規制する法律を可決または提案している。それには理由がある。米国医師会(AMA)の最近の調査では、医師の61%が、健康保険プランによるAIの使用が事前承認の拒否を増加させ、回避可能な患者への害を悪化させ、不必要な無駄を増大させていることを懸念していることがわかった。

保険者はコスト削減と効率向上のためにアルゴリズムシステムを使用することが多い。しかし今や、公平性、透明性、人間による管理も確保することが不可欠となっている。利用と補償の決定は重大な影響を持つ。そのため、補償の拒否は評判の低下や患者への害につながる可能性がある。医療の意思決定者は以下の点に留意すべきだ:

• 保険者と提携する場合や事前承認または補償決定支援にAIを導入する場合は、関連する規制を理解し、医師または同僚のレビュアーが権限を持ち続けることを確保する。

• 人間によるレビューとオーバーライド機能の文書化を維持する。

• 補償決定におけるバイアスについてAIシステムを検証し監視する。

• 特に組織が複数の管轄区域にまたがる場合は、進化する州法に注意を払う。

断片化した州規制の状況

州間の法的断片化は新しいものではないが、現在のパッチワーク状のAI監視は医療組織にとって引き続き課題となるだろう。参考として、Traxの調査によると、46の州が今年、医療AIに関する250以上の法案を提出した。17の州がそのうち27の法案を制定し、さらにいくつかの法案が承認待ちとなっている。

連邦側では、州の行動を先取りまたは制限する取り組みがあった。例えば、提案された予算調整法案の文言では、法律がシステムの展開を促進しない限り、州または地方自治体によるAI規制に10年間のモラトリアムを課すことになっていた。現時点では、特に連邦法が遅れている場合、組織はコンプライアンスが州ごとに異なると想定する必要がある。リーダーが心に留めておくべきいくつかのポイント:

• 医療AIシステムは適応性を持つべきである—柔軟な開示、レビューワークフロー、データ保存場所の制約、監視要件を備えた設計。

• 政策と規制のモニタリングに早期に取り組む。データローカリゼーションやバイオメトリックデータの同意法が、大規模データに依存するAIシステムとどのように交差するかを検討する。

• 多くの医療AIシステムは、医療提供者、保険者、ベンダーの境界を越える。共有ガバナンスフレームワークがコンプライアンスの負担軽減に役立つ可能性がある。

2026年に予想されること

医療機器および診断ソフトウェアに関するFDAの規則アメリカのAI行動計画など、いくつかの新しい連邦規制が存在するが、新年にはさらに多くの州法と医療法が形作られることが予想される。

初期の法案の中には分野横断的に適用されるものもあるが、規制当局はますます、医療が患者の安全性、臨床的文脈、データの機密性、保険および支払いシステム、その他の分野に対応する領域固有のルールを必要とすることを認識している。

10月には、カリフォルニア州でニューサム知事が上院法案53(TFAIA)に署名し、フロンティアAIモデルに対する国内初の包括的な規制フレームワークを確立した。これには透明性、安全インシデント報告、内部告発者保護の要件が含まれている。この法律は大規模AIデベロッパーに「フロンティアAIフレームワーク」の公開、インシデント報告プロトコルの制定を指示し、州の司法長官に非遵守に対する民事罰を課す権限を与えている。

これらの動向により、医療組織はより厳しい規制の精査、インシデント報告、監査を予想すべきである。相互運用性とデータローカリゼーションの問題もより顕著になるだろう。テキサス州フロリダ州のように、特定の電子健康記録データを州内または米国領土内に保存することを義務付ける州もすでに存在する。そのため、データインフラの決定はAIモデルの透明性と同意義務と層を成して優先事項となるだろう。

医療分野でAIをリードまたは構築している人々にとって、規制の波は高まっている。ガバナンスを後回しにする人々は時代に取り残されるだろう。透明性とAI決定の規制を優先し、法的断片化の課題を予測することで、組織は2026年以降のコンプライアンスと導入戦略を将来に備えることができる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事