ヘルスケア

2024.03.13 16:30

「肌の色が濃い人では正常に機能しない」という医療機器に英国で対応を求める声

安井克至
1880

人工知能

人工知能(AI)はヘルスケア分野で大きな可能性を秘めており、すでに一部の臨床応用に使用されている。しかしAIツールは、学習に用いたデータの内容によって偏った結果を生じることも知られている。

例えば、皮膚ガンのAIによる検出モデルが、肌の明るい患者の画像でトレーニングされていた場合、肌の濃い人では誤診が増えると考えられる。また、男性の画像データでモデルがトレーニングされていれば、女性のX線画像では心臓病を発見できない可能性もある。

このような潜在的な偏見の影響を測定するためのデータがまだ比較的少ないため、著者たちは、(ChatGPTのような)大規模言語モデルが健康の公平性にどのような影響を与えるかを評価するためのタスクフォースを設立するよう呼びかけている。

「早急な対応」が必要

Race Equality Foundation(人種平等基金)の最高責任者であるジャベール・バットは、この調査結果に基き「早急な対応が必要です」と語り「私たちは医療機器の公平性評価やより厳しい規制などを、迅速に実施しなければなりません」と強調した。そして「人種や肌の色に関係なく、質の高い医療を受けられるのは当然の権利です。偏見を取り除き、医療ツールがすべての人に対して効果的に機能することを、担保する必要があります」と述べた。

バットは今回の報告書を歓迎しつつ「健康研究にはさらに多様性を確保し、公平性を高め、協力的なアプローチをとる必要があります」とも訴えた。

そうしなければ、医療機器、臨床評価そして医療介入における人種偏見は「持続するでしょう」とバットは付け加えた。「それでは患者の状態を改善するどころか、害を与えることにも繋がりかねません」

バットの懸念は、NHS人種と健康観察所のCEOであるハビブ・ナクビ教授の懸念とも一致している。

「医療研究における多様性の欠如、公平性への配慮の欠如、協働的アプローチの不足が医療機器、臨床評価、その他の医療介入における人種的バイアスにつながっていることは明らかです」とナクビ教授は声明で述べた

同氏はさらに、研究分野において、臨床試験で少数民族患者が占める割合を増やす必要があると強調した。「公共医療システムにおける民族データの記録の質を向上させ、医療画像データバンクや臨床試験で幅広い多様な肌の色調が使用されるようにする必要があります」と彼は述べた。

そして、医療機器は「コンセプトから製造、供給、販売に至るまで、公平性を考慮する必要があるのです」と付け加えた。
SEE
ALSO

サイエンス > ヘルスケア

パルスオキシメーターの精度は黒人やアジア系で低下、FDAが指摘

forbes.com 原文

翻訳=酒匂寛

タグ:

ForbesBrandVoice

人気記事