非営利メディア「ProPublica」が2017年に発表した調査報告書によると、Hartのようなリスク評価ツールには、重大な欠陥があることが明らかになった。 例えば、現在、欧米諸国を中心に普及し始めているリスク評価ツールは、黒人を「将来の犯罪者」として判断する傾向が高いという。一方、白人は低リスク、もしくは再犯リスクが低いと評価する傾向がある。つまりAIの判断は、人種差別に繫がる可能性があるのだ。
ダラム市警は「テスト期間中のHartの決定は、ただアドバイザーの役割にとどまるだろう。他の数千の事例をともに分析し、最終的な結論に到達することになる」と説明している。
通行人を瞬時に不審者かどうか判断
現在、AIを使った大規模な監視ネットワークの構築を進めている中国でも、「人権侵害」を懸念する声が上がっている。河南省では2018年の春節(旧正月)、帰省ラッシュで混雑するターミナル駅の警備のため、AIによる顔認証システムと連動したメガネ型情報端末の利用を開始した。
具体的には、「グーグル・グラス」に似たメガネ型端末を装着した警察官が駅を歩く人の顔を瞬時にスキャンして、画像データとして取り込む。全国民に発行されるIDカードの顔写真データや不審者をリスト化したデータベースと照合し、短時間で問題のある人物かどうかを判断するのだ。今回の試験運用で逃亡中の容疑者7人のほか、他人の身分証明書を不正に使用した26人が摘発され、成果を上げているのだ。
この新技術の導入で、テロを未然に防いだり、捜査の効率化を期待できる一方、重点的に監視される少数民族などの人権侵害につながるといった声も出始めている。日本でAIを使った取り締まりを検討する神奈川県警についても、同様の懸念が上がっており、本格的な導入に向けては議論の余地がありそうだ。
しかし一方で、前述したシカゴ市警においては、従来の捜査手法は人種差別を容認しているとして「体系的な欠点がある」と指摘された報告書が2017年に出されており、Hunchlabの導入によって、警察による人権侵害を減らす目的もあるのだ。果たして、犯罪捜査におけるAIの導入は、各国の治安を安定させる救世主となるのか、日本の動向とともに、引き続きウォッチしていきたい。
AIのトレンド、最前線の情報が満載!
「AI Lab」で関連記事をもっと読む>>