一方で、ディープラーニングなどを駆使した医療AIは、判断過程が高度に複雑化する傾向があることも知られるようになった。人間の医者や医療従事者からは、AIが病気を判断した根拠や理由が分からなくなってしまうという、いわゆる「ブラックボックス問題」が課題として浮上しているのだ。
そんななか、韓国の医療業界では医療AIの力を最大限に実用化するために、ブラックボックス問題を解決する「説明可能なAI」(XAI)の開発が旺盛に行われ始めている。XAIとは、判断過程や根拠を人間が理解することができる透明性を持ったAIだ。最近、大学系列の病院を中心に、医療XAIに関するいくつかの最新の研究結果が発表されている。
8月上旬、ソウル大学が運営するソウル特別市ポラメ病院の研究チームが、前立腺ガンを予測するXAIの研究結果を公開した。
研究チームは、年齢、前立腺の容積率、超音波および血液検査の結果などの指標と、2009年から2019年までに同病院で検査を受けた2843名のデータを使用し前立腺がん診断AIを開発。その後、948名の対象を無作為に選び出し、実際に診断の効果を検証した。最終的に、精度約87%と効果的に予測することができた上に、医療陣がAIの判断理由を簡単に知ることができるようになったと結果を報告している。
7月末には、ソウル大学病院の研究グループが、緑内障を診断するXAIを開発したと発表している。研究グループは、コーホート(共通した因子を持ち、観察対象となる集団)の眼底写真6000枚を使用しAIを学習させた。その後、AIに「絶対的説明方法論」(Adversarial Explanation)を適用。これにより、AIは眼底写真を緑内障と判断した根拠や意見を生成し、医療陣に提示することができるようになったという。ソウル大学病院の研究グループは同研究結果をベースに「人間と相互疎通が可能なAI医療機器」の開発に乗り出す計画だとしている。
人工知能に関する期待や関心が再燃し始めた後しばらく、「人間とAIのどちらが優秀か」という議論が白熱してきた。しかし現在のフェーズをみると、「人間とAIがいかに協業しパフォーマンスを最大化するか」という方向に、技術が発展を遂げようとする傾向がみえる。XAIをはじめ、人間のパートナーとしての優しいAIの開発の行方に注目したい。
連載:AI通信「こんなとこにも人工知能」
過去記事はこちら>>