アルゴリズムを走らせるための情報源は電子カルテだ。これらのアルゴリズムは、医師が腫瘍の変異具合をもとに最適ながん治療を選んだり、過去の患者のデータをもとに治療計画を立てたりするのを助けるために設計されている。
しかし、アルゴリズムやロボットは、ヘルスケア領域における倫理を学ぶことができるのだろうか?
スタンフォード大学の医師グループは、AIを医療に使うためには倫理面での課題があり、ヘルスケア分野のリーダーたちはAIを実装する前にそのことについてよく考えなければならないと主張する。
「機械学習システムのメカニズムを理解しないままでいること、それをブラックボックスのままにしておくことで、倫理的な問題が発生することになるでしょう」。彼らは3月中旬に発刊された「New England Journal of Medicine」(NEJM)でそう綴っている。
彼らの懸念はタイムリーなものだった。同じく3月中旬、こんなヘッドラインが飛び込んできたからだ。「医者と同じように前立腺がんの診断を行うスマートソフトウェア」。
中国・南京市のドラム・タワー病院の研究グループが、コペンハーゲンで開催されたヨーロッパ泌尿器科学学会のなかで、前立腺がんを特定するAIシステムを開発していることを発表した。これは人間の細胞をもとに、がんがどれくらい悪性かを識別できるものである。
「こうしたAIは、医師が足りていない領域においてはとても有益なものとなるでしょう。すべてのオートメーションと同様に、医療AIは専門知識をもつ人々への依存を少なくすることができるのです」。中国チームの研究をレビューしたイタリア人研究者は、声明のなかでそう語っている。
バイアスのないアルゴリズムはつくれるか?
AIが完全に人間の医者に取って代わることになると考える専門家は少ない。少なくとも短期的には。その代わりに、マシンラーニングは「意思決定のサポート」をするために使われることがほとんどである。医師が正しい診断をしたり、個々人に合った治療をしたりすることを助けるものだ。それはとても有益なものとなりうる。
フォーブスのコントリビューターでスタンフォード大学教授であるロバート・パールは、Permanente Medical Groupによって開発されたAIについて記事を書いている。グループは65万人の患者のデータを集め、どの患者が最も手厚いケアを必要としているかを特定するためのAIを開発。システムが危険状態にある患者について知らせることで、医師は患者が集中治療室に運ばれる前に対処することができる。
しかし、NEJMの論文を書いた医師たちがAIについて懸念していることのひとつは、無意識のうちにアルゴリズムにバイアスがかかってしまうことである。そうしたバイアスは、すでにAIが使われている分野で見られている、と彼らは報告している。