立正大学経営学部の山本仁志教授と津田塾大学の鈴木貴久准教授による研究チームは、AIの道徳的な判断を人が受け入れる条件について探求した。とくにこの研究では、「間接互恵性」において自身の道徳的な判断に確信が持てない状況に焦点をあてている。
間接互恵性とは、個人が評判にもとづいて他人を助けるメカニズムを表す心理用語だ。たとえば、あの人はいい人だと聞けば、その人に協力しようと思う心理だ。
同研究チームは以前、職場における間接的互恵性の研究を行っている。非協力的で評判の悪い社員アリスを助けなかったボブの善悪に関する人事担当者の評価をどう思うかというものだ。評判の悪い人間に協力しないことは「正当化される非協力」と呼ばれるが、その調査では、人には正当化される非協力の善悪の判断を避ける傾向があることがわかった。
今回の研究では、正当化される非協力の評価がAIと人間とで分かれた場合に、人々がどちらの決定を受け入れるかを調査した。結果、AIは正当化される非協力を良しとし、人間は悪いと判断した場合のみ、参加者はAIの判断を受け入れた。
こんな先行研究もあった。企業の人材採用で一貫して女性に低いスコアを付けるAIと人間の判断を参加者がどう評価するかというものだが、人々は人間の判断には差別的意図があると推論したのに対して、AIにはそうした推論はなされなかった。つまり、AIは客観的な判断を下すものと考えられたというわけだ。
間接的互恵性は、信頼や協力にもとづく社会においては非常に重要なものだ。人間には苦手なその善悪の判断をAIに委ねるならば、AIに関する偏見をなくし、さらに善悪の社会規範を確立する必要があると研究チームはこの研究に関する論文の中で指摘している。
この研究結果は、「人間の期待や社会的規範に合致したAIシステム」の設計に重要な役割を果たすと研究チームは話している。
プレスリリース



