例えば、人口1万人あたり、わずか医師数1名、医療従事者数6名のルワンダでは、ヘルスボットが医療センターの職員にかかる負担を軽減しています。患者は診察の列に並ぶことなく、国内のどこからでも電話で医師や看護師に相談することが可能です。また、処方箋や臨床検査のためのコードを、テキストメッセージで受信することもできます。
Westend61 / Getty Images
将来、このようなヘルスボットは、ルワンダの言語や疫病にローカライズされたAIを使ったトリアージツールとなり、より多くの患者に対応できるようになるでしょう。対面での診察を必要とする患者については、トリアージツールにより、治療の緊急性の最も高い患者が優先されます。さらに、トリアージツールにより患者の情報を共有できるため、医師は患者の治療に必要な情報を素早く入手できるようになるのです。
このようなバーチャルアシスタントを利用することで、貴重な医療資源をより有効に活用できるようになります。その結果、治療の質は高まり、医療従事者は常に最新情報を得ることが可能になります。
チャットボットのデメリット
AIは継続的に学習しますが、そのアルゴリズムは、バイアスのある人間が設計しています。AIを搭載したチャットボットの利用においての落とし穴の一つは、プログラマーの多様性の欠如により、チャットボットが偏った回答をしてしまうことです。
訛りの強いユーザーの場合、チャットボットに誤解されることが多く、患者のみならず、正しい情報を求めている人に対しても影響を及ぼすおそれがあります。不適切な治療方針、誤った診断、タイムリーな治療を受けられないことにより、深刻な結果を招く可能性があります。そのため、プログラマーの多様性を高め、コミュニケーションにおける不公平感の具体例を認識することが課題です。
ユーザーの対話相手がボットなのか人間なのかを区別できる能力と同様に、情報のプライバシーも慎重に考慮すべき問題です。NLPを搭載したバーチャルアシスタントは高度化が進み、常に「自然」に聞こえるようになってきました。そのため、患者をはじめとするユーザーが、対話相手が人間なのかボットなのか、医療診断を行っているのが医師なのかボットなのか、とまどうのも無理はありません。
このような課題に対処するため、スタンフォード大学は、人工エージェントが要求に応じて自らがボットであることを明確に示す識別情報を作成する必要があると、提案しています。さらに、この提案では、バーチャルアシスタントの所有者と使用の履歴に関する情報を含めることも求めています。この履歴情報により、トラッキングに関する懸念や、結果に対する責任の所在についての問題に対処できる可能性があります。