「嘘に騙されるロボット」とは!? 法務省の再犯防止プロジェクト

Olga Nikonova/shutter stock


「寮生は、相手が自分を管理する者だと察すると、“いい子”を演じて、嘘をつくようになります。その嘘に対して、どういう反応をするかを見て、次の話をするかを判断します。また、昨日の嘘と今日の嘘が辻褄が合わない。それでも今日は今日の嘘につきあえるか。かといって優しすぎてもダメ。悪いことをしないように警告できる関係も必要です」

つまり、厳しい幼少期を過ごした者が「本当は実家は金持ちでお手伝いさんに囲まれていた」という切ない嘘を言っても、「へえ、もっと教えて」と応じるロボットである。

では、いくらロボットがコミュニケーションを取りやすいとはいえ、あえて人工知能(AI)を更生の場に使う必要はあるのか?

これは昨今の少年犯罪を見ていくと納得できる。15年に川崎市で起きた中学1年生殺人事件もそうだが、非行少年たちはLINEを軸にしてグループを形成し、行動する。学校を超えて繋がるため、保護司が「あの子に聞けば、グループの行動がわかる」と、子どもたちを追える時代ではなくなった。せっかく更生したと思っても、悪い仲間や誘惑がサイバー空間からやってくる。そこで必要になるのが、子どもたちと同じ目線で接する「寄り添い型AI」となるのだ。

サイバーテクノロジーがツールとなって悪事に陥るのなら、心に善悪の判断をさせるきっかけもテクノロジーというわけである。

来年9月、東京で「第3回世界保護観察会議」が開催される。孤独と孤立がもたらす心の病気は、ロボットと向き合うことでどう変わるのか。会議では、日本の発表者が世界に向けて、寄り添い型AIによる再犯防止効果を報告する予定だ。

文=藤吉雅春

この記事は 「Forbes JAPAN No.23 2016年6月号(2016/04/25発売)」に掲載されています。 定期購読はこちら >>

タグ:

ForbesBrandVoice

人気記事