サンフランシスコ地区検事のGeorge Gascónは6月12日、「偏見緩和ツール」の利用を7月1日から開始すると発表した。このツールは警察の取り調べ調書から、髪の毛の色や郵便番号といった人種を示唆する情報を自動的に除去する。警察官の階級などの情報も、同時に取り除かれる。
「このテクノロジーにより、審理過程に人種的バイアスが与える影響を低減できる。これにより、従来よりも公正な判断が行える」とGascónは述べた。
2008年から2014年にかけて、サンフランシスコで投獄された人の43%を黒人が占めていた。しかし、サンフランシスコの人口に占める黒人の割合は、わずか6%程度だ。この背景には人種的偏見が潜んでいる。それをAIで解決するのが今回のツールの狙いだ。
世間ではこれまで、AIが人種的偏見を助長するケースが度々報じられてきた。2018年のマサチューセッツ工科大学のレポートでは、アマゾンの顔認証ソフトのRekognitionの認証精度が、黒人を対象にした場合に著しく低下すると報告された。アマゾンはこのソフトを政府機関に販売しようとしているが、同社のAWS部門CEOのAndy Jassyは先日、「連邦政府の調査を快く受け入れる」と述べ、導入を焦らない姿勢を示した。
サンフランシスコで導入されるAIツールを開発したAlex Chohlas-Woodは、ニューヨーク市警が既に犯罪捜査に活用中のPatternizrの開発者だ。Patternizrはマシンラーニング技術で犯罪のデータベースを学習し、特定のパターンを抽出する。一部の市民団体はこのツールの問題点を指摘していた。
ただし、サンフランシスコで利用されるツールは、Patternizrにさらに改善を加えたものであると、スタンフォード大学のComputational Policy Labの副部長を務めるChohlas-Woodは述べている。
「このツールは偏見の影響を受けた過去のデータベースに頼らず、新たな決定を生むために役立てられる」と地区検事事務所の広報担当は述べた。
サンフランシスコでは今後、地区検事が担当する事件の80%に、このツールが利用されることになるという。ただし、殺人やドメスティック・バイオレンス、性的暴行などの事件には、当面の間このツールは用いられない。
また、ツールが利用されるのは初期の非公式な判断に限定され、検事らはその後、未編集の調書や警官のボディカメラで撮影した映像などを吟味して正式な判断を下す。
スタンフォード大学のポリシーラボは、このツールと合わせて検事らがフィードバックを提供可能なプラットフォームをウェブ上に開設した。このツールのプログラムは今後、他の地区での利用に向けて無料で公開される。