一方で、データそのものが間違っている、もしくは恣意的な場合も、正確な未来予測はできない。例えば、AIナウ研究所が発表した「Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice」という論文では、米警察の予測型取締りシステムが、いかに「汚染データ」によって歪められているかがまとめられているという。
要約すれば、警察の偏見や点数稼ぎのために恣意的にでっちあげたデータ(人種・地域別の犯罪データや検挙例)などを学習した人工知能が、差別的な「汚染された予測結果」を生んでいるというものだ。
汚染データ問題は、未来予測が正確ではないという問題以上のリスクを孕む。それは、汚染された予測結果から「汚染された未来」が生まれてしまうといものだ。犯罪捜査の現場であれば、まったく罪のない人たちが“監視対象”となったり、実際に犯罪者として逮捕されてしまうケースにも繋がりかねない。
汚染データ、汚染された予測結果、そして汚染された未来のリスクは、私たちひとりひとりにも深く関係し始めている。金融ローンや教育、また就職といった我々の生活の細部にも、AIを使った未来予測もしくは信用評価ツールが用いられ始めているからだ。
何をもってヒト・モノ・コトの未来を判断する材料とするかというデータの選別、またそのデータが汚染されているか否かという問題は、今後、ビジネス面においても、また社会一般においてもシビアに問われていかなければならない。
連載:AI通信「こんなとこにも人工知能」
過去記事はこちら>>