真の変革は原子炉ではなかった。それは送電網だった。
人工知能(AI)と原子力発電の比較は、リスクと規制に焦点を当てることが多い。これらの類似点は確かに存在するが、より重要なポイントを見逃している。
原子力発電所は魔法ではない。その中核は蒸気タービンであり、1世紀以上前から存在する技術である。変わったのはエネルギー源だ。核反応により、従来のシステムでは実現できなかった規模と安定性で発電することが可能になった。しかし、その電力が意味を持つようになったのは、周辺のシステムが進化してからだった。
原子力を実用化するために、私たちはその周辺のすべてを再設計しなければならなかった。送電網は拡大した。負荷分散は改善された。新たな安全システムと監視体制を構築し、継続的に実施する必要があった。強力でありながら未知の新しい種類の電力を管理するために、全く新しい役割と専門分野が生まれた。送電網に必要だったのは、エンジニアリングだけではなかった。その電力を安全かつ使用可能にするために、ガバナンス、規制、説明責任、そして信頼が必要だった。
AIも同じ道をたどっている。モデルはシステムではない。それらは新しい電力源なのだ。
心臓専門医のエフスタシア・アンドリコプル医師(MBA、FACC、FASE)は、臨床現場の内部からこの問題を明確に見ている。私たちの会話の中で、彼女はシンプルに述べた。「検出は成果ではない。検出は必要だが、明確に定義された行動と、フォローアップを吸収するように設計されたシステムがなければ、検出は何の意味も持たない」
これが医療AIにおける中核的な失敗である。技術がボトルネックではない。その後に何が起こるかが問題なのだ。
モデルは疾患、リスク、または悪化を検出するかもしれない。しかし、明確なワークフロー、責任の所在、フォローアップがなければ、患者にとって何も変わらない。結果は受信トレイに置かれたままになる。臨床医がそれを見るかもしれないし、見ないかもしれない。患者は文脈のない情報を受け取る。
私たちはしばしば検出を称賛する。精度を測定する。モデルを比較する。しかし、最も重要な質問をすることはほとんどない。次に何が起こるのか?
多くの場合、答えは何もない。あるいは一貫性のない何かである。
だからこそ、AIはソフトウェアというよりも、新しい電力源のように見えるのだ。原子力エネルギーと同様に、その価値は、周辺のシステムがそれが生み出すものを安全かつ確実に使用できるかどうかにかかっている。
制約は送電網にある
医療は、このレベルの出力を吸収し、それに基づいて行動するように設計されていなかった。ワークフローは断片化され、データはサイロ化され、責任はしばしば不明確であり、人生で最も困難な瞬間を乗り越えようとしている人々が、それを理解することを期待されている。
AIはより多くのシグナルを生成しているが、それらを受け取り、行動することを期待されているシステムは追いついていない。それを前進させるシステムがなければ、シグナルはノイズに変わる。そしてノイズは単なる非効率ではない。それは一貫性の欠如であり、医療において一貫性の欠如はリスクである。
これは導入の問題ではない。システムの問題である。それは、AIを脇に追加するのではなく、実際のワークフローに組み込むこと、フォローアップの責任者を明確にすること、モデルのパフォーマンスではなく成果に基づいて成功を測定することを意味する。
原子力発電が必要としたものは、しばしば見過ごされている。それは、規制、インシデント対応、多層的な冗長性を含む新しい安全システムを要求した。長期的な燃料の取り扱いと廃棄物管理を必要とした。エンジニアからオペレーター、規制当局まで、全く新しい役割を生み出した。
これらの変更は、原子力エネルギーに欠陥があったから行われたのではない。それが強力だったから行われたのだ。
医療はこの移行を行っていない。
AIツールは導入されているが、完全には統合されておらず、パフォーマンスはしばしば一度測定されるか、全く測定されず、リスクが検出されたときには、責任の所在がしばしば不明確である。
私たちは原子炉を建設した。しかし送電網は建設していない。
私たちはAIが生み出せるものによって制限されているのではない。私たちのシステムが吸収するように構築されているものによって制限されているのだ。
電力源を規制し、システムを可能にする
原子力の類似性は、ガバナンスを明確にするのにも役立つ。
原子力エネルギーは、リスクが現実のものであるため、厳格に規制されている。しかし、規制の目的はそれを止めることではない。安全に使用されることを確実にすることである。
AIも同じバランスを必要とする。
モデルがどのようにテストされ、承認され、監視されるかについては厳格であるべきだ。しかし、AIを封じ込めるべきものとして扱うことは避けるべきである。目標は安全な使用であり、抑圧ではない。
米国では、このアイデアはすでに技術を規制する方法に存在している。各州は、特に安全が関わる場合、実際の環境でツールがどのように使用されるかに焦点を当てている。目標は技術そのものを禁止することではなく、それが責任を持って、明確な説明責任とともに使用されることを確実にすることである。
AIも同じ道をたどるべきである。
歴史は警告を提供している。初期の失敗が、原子力発電に対する世世論の見方を形成し、その認識は今日でも普及を制限している。
私たちはAIで同じ過ちを犯すべきではない。
インフラこそが政策である
最も重要なAI政策の決定は、モデルに関するものではない。それらを取り巻くインフラに関するものである。
テッド・バッド上院議員とアンディ・キム上院議員によって提出された超党派のAI対応データ法は、データの品質、相互運用性、アクセシビリティ、つまりAIが現実世界で機能するために必要な基盤に焦点を当てることで、この転換を反映している。
この法案が行っているのは、モデルを規制しようとすることではない。モデルが機能するために必要な前提条件に投資することである。
医療において、問題はモデルが洞察を生成できるかどうかではないことが多い。その洞察が信頼され、ルーティングされ、行動に移される形でデータが存在するかどうかである。データが断片化されているか、一貫性がない場合、正確な出力でさえ意思決定に変換するのに苦労する。
だからこそ、この法案の超党派的な性質が際立っている。インフラは、AIにおいて合意が可能な数少ない分野の1つである。なぜなら、能力を制限することについての議論を避け、代わりに責任ある使用を可能にすることに焦点を当てているからだ。
原子力発電が電力網の構築を必要としたように、AIはデータ層の構築を必要とする。開発のためだけでなく、現実世界の環境における検証、監視、行動のためにも。
より多くの電力は壊れたシステムを修復しない
AIは画期的な技術であるが、画期的な技術は単独では影響を生み出さない。システムが生み出すのだ。
私たちはかつてないほど多くのインテリジェンスを生成しているが、それに基づいて行動する責任を負うシステムは再設計されていない。より強力な電力源を同じシステムに適用しても、より良い成果は生まれない。
より多くの電力は、壊れたシステムを修復しない。それはシステムの欠陥を露呈させるのだ。



