ではこの救急相談センターの仕事をAI化するのはどうでしょうか? 確かに、医療の専門家を24時間、問い合わせに対してすぐに応答できるような体制を維持するのは自治体にとって大きな負担です。
AIを上手く使うことで安価に、全ての地域で、スピーディに対応する体制が整うかもしれません。音声認識や自然言語処理といった上手く技術を使えば、現時点でもこうした仕組みを作れないわけではありません。既に様々な相談内容からプロがどう判断したか、というAIを作るために必要なデータも蓄積されつつあるはずです。
しかし、何も考えずにこうした「救急相談センターのAI」を作ってしまった場合に問題になるのが「責任性」ということになります。
人間が聞けば誰でも明らかに救急車にかかるべき状況で、誤ってAIが「明日病院に行けば大丈夫」と判断してしまう可能性がないわけではありませんし、その結果相談者の命が失われることもあります。
この場合の責任を、誰がどう負うかが明確でないのであれば、安直にAIを作るべきではないでしょう。
これをさらに拡大して言えば、財産権以外の人権を侵しうる判断は全て「お金だけの問題ではない」リスクをもたらしうることになるでしょう。例えば刑事司法の処理をAI化すれば、「不当な抑留や拘禁からの自由」という人権侵害のリスクが生じます。
また、前回言及したコンシェルジュサービスのようなものであっても、食べ物や飲み物が宗教上のタブーに触れてしまえば「信教の自由」を侵害するリスクが生じます。
以前グーグルが作った画像認識のためのAIがアフリカ系アメリカ人の画像を「ゴリラ」と判定してしまったために、大きな非難を受けました。これもある意味で「差別」という人権侵害を行なってしまったために大問題となったと考えられるでしょう。
このような「責任性」の問題が考えられる場合の対処方法は大きく分けて2つ考えられます。1つは前回と同様、課題の範囲を上手く絞って「お金の問題じゃないリスク」が生じないようにすること、そしてもう1つは最終的な人間の意思決定を補助するような存在にすることです。
前回、コンシェルジュサービスの範囲を「ショッピング場所への案内に絞る」という例を挙げました。これには食べ物や飲み物といった宗教的タブーに触れにくくする、というメリットもあります。
救急相談センターの例で言えば、「明らかに救急車がいらない状況」と「プロフェッショナルな人間が対応した方がよい状況」の仕分けだけをAIに任せる、というのが一つの方法です。あるいはプロであっても人間がうっかり見落としがちな希少疾患の可能性について注意を促す、というタスクに絞れば、最終的に判断するのは人間ですのでAIの責任性という点はクリアになります。
AIの応用について、過剰に恐れる必要はありませんし、過剰に信じる必要もありませんが、このような「お金以外の責任性」という観点で、どのようなリスクがあるか、そしてどのようにすれば解決できるか考えてみましょう。
連載 : 失敗しないAIプロダクトの作り方
過去記事はこちら>>