責任性とはつまり、仮に99%正しい判断を下せるAIがあったとして、残り1%の「失敗」に対して、誰がどのようなリスクを負い、その責任を誰が負うべきかということです。
第2回で取り上げた囲碁や将棋のAIはこの責任性の観点で言えばとてもAI向きの課題でした。負けた場合に制作者が悔しがるぐらいのリスクはありますし、それ以外ではせいぜい賞金がどうか、という程度の話です。
また、前回例に挙げたホテルのコンシェルジュサービスという点でも、「ショッピングの場所への案内」のようにある程度課題の範囲を絞ってしまえば、精々顧客が不愉快になって離反してしまう、という程度のリスクです。
一流のコンシェルジュが常に常駐するための人件費をAIで代替した場合のコストメリットが、ごくわずかな「AIの判断ミスによる顧客の離反リスク」を上回るのであれば、AIの導入はとても合理的な判断ということになるでしょう。
そのAIがごくわずかに判断ミスを犯す場合のリスクが「支払い可能なお金の範囲」だけに収まるような課題は、今回考える「責任性」の観点ではとてもAI向きのものだと言えます。
AIプロダクトを一度きちんと作ってしまえば、ふつう人件費よりはるかにランニングコストは安くなりますので、AIが誤った判断を行なった場合のリスクがある程度の金銭だけで済むのであれば、たいていは経済的な合理性を持つでしょう。
なお、この考え方に基づくと、第2回で考えた「総負荷量」とは最初にAIプロダクトを作るためのイニシャルコストが、後々のランニングコストで回収可能なのかどうか、という言い方もできます。あるいは前回考えた「同質性」とは、AIの正答率が安定して高い状態を保てるかどうかという視点だと考えることもできます。
ではその責任性が「お金の範囲」を逸脱するような課題とは何でしょうか? まず確実に言えるのは、生命に関するものです。
例えば我々は、119番に電話をかけて救急相談センターに「救急車を呼ぶべき状況かどうか」を確認することができます。電話の先には医療や救急救命のプロがいて、症状や前後の状況を説明することで「すぐに救急車を呼ぶべき」「明朝病院にかかれば大丈夫」といった判断をサポートしてくれるわけです。