いくつかの研究成果
MITテクノロジーレビューは2024年、独ヴュルツブルク大学のアリシア・フォン=シェンクらによる研究を取り上げた。研究の目的は、AIでウソを検出することだ。
研究チームの計算結果によれば、AIは67%の確率でウソを検出できるのに対し、人間は50%の確率でしかウソを見破ることができなかった。
こうした計算結果は奇妙に思える。ウソか、ウソでないかという2択の場合、たとえ分析を一切行わなくても、正解率は50%になるためだ。さらに、67%という数値も、特に優れた成績とはいえない。
そして、研究チームはさらに重要な指摘を行った。人間のウソを検出する精度を高めようとすれば、社会的な生き物である人間にとって重要な「信頼」が損なわれる可能性があるというのだ。
MITテクノロジーレビューの記事を執筆したジェシカ・ヘンゼローは、次のように述べている。「ある意味、これは良いことだ。これらのツールは、ソーシャルメディアの偽情報など、私たちが日常生活で遭遇するウソを見破るのに役立つ」。
「ただし、良いことばかりではない。これにより、信頼が損なわれる可能性もある。信頼は、人間行動の基本的な要素であり、関係構築の助けになっている。正確な判断の代償として、社会的なつながりが劣化するのであれば、それを行う価値があるのだろうか?」。
つまり、精度が高すぎるウソ発見器は、望まれていない、あるいは少なくとも、それを人間関係に持ち込むことは望まれていないのだ。
私たち人間はある意味、自分たちが思っているよりはるかに複雑な存在のようだ。
フォン=シェンクは、評価の問題にも言及している。
「フェイクニュースや偽情報が非常に広まっていることを考えると、これらの技術にはメリットがある。ただし、実際にテストし、人間よりはるかに優れていることを確認する必要がある」。
結局のところ、私たちはAIウソ発見器を受け入れる準備ができていないのかもしれない。


