ヘルスケア

2026.03.09 10:54

介護AIは家族を救うか、追い詰めるか——AI倫理学者が語る設計の要諦

AdobeStock

AdobeStock

親の老いを見守ったことがある人なら誰でも、アルゴリズムが口を挟まなくても介護の意思決定がすでに苦しいものだと知っているはずだ。いま予測AIが介護領域へと広がるにつれ、きわめて個人的な決断がデータに基づく予測の影響を受けるようになっている。

AI倫理学者のレベッカ・ブルツマは、筆者との対話の中で、介護テクノロジーは単なる生産性ツールではないと警鐘を鳴らす。ブルツマはエディンバラ大学で「データとAI倫理」に関する博士論文を執筆中で、ディープフェイクや新興技術にリーダーがどう対応するかを研究している。

AIは効率性、早期介入、より良い連携をもたらすと期待され、人間の生活でもっとも親密な領域の1つに入り込みつつある。AIが家族の支援システムを強化するのか、介護者への圧力を強めるのかは、技術の高度さだけでなく、倫理的な設計に左右される。

介護は単なるデータセットではない

介護は、世界の労働力を支えてきた基盤的な労働である。ツールは、高齢者見守りシステム医療予約スケジューリング支援から、健康状態の悪化や介護者の燃え尽き(バーンアウト)を予測する予測モデルまで幅広い。理論上、こうしたシステムにより、家族は危機が起きてから対応するのではなく、先回りして計画を立てられる。しかし、介護における予測AIは、ほかの予測技術とは本質的に異なる。

ブルツマはこう説明する。「この領域には、実に独特な点がたくさんある。予測は関係性の中に入り込む。たしかにクレジットスコアは金融リスクを予測するが、介護の予測は、娘に母親についての情報を伝える。それはきわめて個人的な含意を持ち、娘がどう関わるかを変えてしまうかもしれない」

クレジットスコアと違い、介護の予測は、愛する人への話し方に影響したり、悲嘆が早まったり、高額な意思決定が前倒しになったりする可能性がある。この技術は単に結果を予測するだけではなく、関係性そのものをリアルタイムで作り替える。

見落とされがちなもう1つの側面が、労働に関する暗黙の前提である。あるツールが介護ニーズの増大を予測する場合、それは同時に「誰かがその介護を担う」ことを暗に予測している。「予測は誰かの労働を前提としている」とブルツマは言う。「たいていは女性で、たいていは無償だ。モデルには、誰の時間が使えるのか、誰のキャリアが柔軟にできるのか、誰が犠牲を払うのかという前提が埋め込まれている」。そうした前提は、家族内、ひいては社会全体における負担の配分を不当に形作る。

「衰え」を定義するのは誰か

予測AIをめぐる公的な議論では、精度とプライバシーの対立に焦点が当たりがちだ。だがブルツマは、より深いトレードオフは複雑で、「衰え」を定義するのは誰か、そして誰の優先順位がモデルを形作るのかにあると主張する。

予測システムは、相反する組織目標の狭間で構築される。ヘルステックの開発を調査した2014年の研究は、開発者が「価値の序列(orders of worth)」を常に行き来しながら、患者にとって最善のもの、システムにとって最も安いもの、組織にとって最も効率的なものの均衡を取っていると述べた。「コスト削減がモデルを駆動するなら」とブルツマは指摘する。「予測は家族ではなく、組織に奉仕しやすくなるかもしれない」

歴史もそれを裏付ける。オーバーマイヤーらがScienceに発表した2019年の研究は、広く使われていた医療アルゴリズムが、医療支出を健康ニーズの代理指標として用いた結果、黒人患者のニーズを体系的に過小評価していたことを明らかにした。支出はニーズと同義ではない。しかし、そのアルゴリズムの論理には、その前提が埋め込まれていた。

ブルツマは、介護の予測ツールも同様に道徳的判断を符号化していると強調する。「これらのツールは、きわめて人間的な判断——何が『衰え』に当たるのか、いつアラートを出すべきか、線引きはどこか——を下し、それを『数学』として装っている」。数字は中立に見えるかもしれないが、その下にある価値観は中立ではない。

予測は人を変える

「衰えの予測は、家族が当人にどう向き合うかを変えることで、自己成就的(self-fulfilling)になり得る」とブルツマは説明する。母親の「今月のリスクが40%上がった」と知らされた娘が、必要以上に早く悲嘆に入り、距離を置いたり、取り返しのつかない決断を前倒ししたりする可能性がある。

最も重大な倫理的課題の1つ——あるいは最も重大な課題——は心理面にある。予測は中立的な情報ではない。人の感じ方や行動を変えてしまう。

ユーザーと対象者が異なることも多い。予測を受け取るのは介護者であり、結果とともに生きるのは患者だ。時間が経つにつれ、患者の同意能力は低下し得る。ブルツマが指摘するように、これは「一度チェックを入れて終わりの問題ではない」。継続的な同意、関係性の力学、自律性を、絶えず考慮しなければならない。

生命倫理(Bioethics)が登場したのは、医療技術の進歩が倫理的省察を上回ったためである。インフォームド・コンセントが標準となったのは、医師が患者に尋ねることなく「患者のため」という名目で意思決定していた後のことだった。介護における予測AIは、そのパターンを規模を拡大して繰り返しかねない。

AIが親により多くのケアが必要だと予測すれば、家族の計画に役立つ場合もある。一方で、自分の家族を理解し、自分が受け入れられる決断を下すという、きわめて人間的な行為を、静かに押しのけてしまうこともある。「正直に言えば」とブルツマは振り返る。「両方だと思う。だからこそ、すべてが難しい」

逆に、予測システムは命を救うこともある。Canadian Medical Association Journalに掲載された2024年の研究は、予測モニタリングにより予期せぬ院内死亡が26%減少したと報告した。だが文脈が重要だ。「それは病院で医師と看護師が出力を読んでいた」とブルツマは言う。「家族の介護者が午後11時にスマホ通知を受け取るのとは、まったく別の状況だ」。次に何をすべきかが伴わなければ、予測アラートはケアツールとして機能しにくくなるかもしれない。

説明責任と公平性のためのガードレールを

AIが介護を責任ある形で支えるためには、倫理的なガードレールは技術的性能を超えて広がらなければならない。

ブルツマは、製品よりもプロセスを重視する。最も重要な安全策は、介護者と患者——とりわけ、歴史的に医療システムから十分にサービスを受けてこなかったコミュニティの人々——が、最初から設計の意思決定に参加することを確実にする点にある。

2023年の研究は、主要な商用言語モデル(LLM)が、臨床実務ではすでに否定されて久しい、人種に基づく時代遅れの医療上の前提を再生産していたことを示した。研究者と開発者は公平性監査(フェアネス監査)の枠組みに積極的に取り組んでいるが、実装はプラットフォームによって異なる。

場合によっては、テクノロジー企業が自社ツールを評価する研究に資金提供しており、独立した監督のあり方に疑問が生じる。「審判がどちらかのチームで働いている」とブルツマは言う。独立性を欠いた透明性だけでは不十分だ。彼女は、いくつかのガードレールを提案する。

  • 予測精度だけでなく、関係性への影響を研究する
  • 臨床グレードの予測と、消費者向けの提供方法を切り分ける
  • 疲れた介護者でも理解できる言葉で説明を提示する
  • 導入前に、人種・所得・地域にまたがる公平性を検証する
  • 予測と同時に、実行可能な対応経路を必須とする
  • 介護者と被介護者の双方に、オプトイン(事前同意)を義務付ける
  • 家族が予測に同意しないことを、ペナルティなしで認める
  • 「衰え」の定義とアラート閾値を決める場に、介護者を参加させる

AIは進化を続ける。ブルツマの中心的な警告は明確だ。介護AIは、健康の軌跡を予測することだけが目的ではない。個人的な関係性を作り替え、道徳的な前提を含み、労働を再配分する。ガードレールがなければ、「効率化」の名の下に女性の不平等と感情的負担を増幅させる危険がある。

介護AIの未来は、アルゴリズムの精密さだけで決まるのではない。「衰え」を定義する声は誰のものか、前提とされる労働は誰のものか、そして倫理が技術の拡張に追いつくのか——それによって左右される。ケア経済において安定化の力となるには、知能だけでなく、謙虚さ——そして人間性——とともに進歩しなければならない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事