コリジョンに参加していた「アニタ・ボルグ女性と技術研究所」の社長兼最高経営責任者によれば、看護師向けに開発されたある音声認識機能ソフトウェアは医療機関で使用してみたところ、大失敗に終わった。女性たちの発言を認識することができなかったためだ。
また、ある顔認識ソフトウェアは、黒人と白人の顔の認識の精度に大きな差があると指摘されている。犯罪者の可能性がある人物の特定において、法執行機関が全米の各都市でこの技術に大きく依存していることを考えれば、非常に大きな問題だといえる。
2. ロボットの「解雇」は困難
配車サービス大手ウーバーの元エンジニア、スーザン・ファウラーの例を思い出してみてほしい。上司によるセクハラを訴えたが、ウーバーはこの上司が「優秀な人間」であることを理由に、ただ注意をしただけで済ませた。
次に、「一人の優秀な人間」ではなく、企業の運営方針の一部に完全に組み込まれた「何千ものロボット」が上司となる状況を想像してみてほしい。ウーバーのセクハラ問題に対応をしたのは人間関係の問題を扱う人事部だったが、会社側に加担し、適切な対応を怠った。ロボットが人事を担当するようになれば、たとえ「最高のチーム」を作ったとしても、こうした人間関係の問題を監視することはできないだろう。
そうなれば、誰がそうした問題に関する苦情を扱うのだろうか。AIの専門家たちが、効率的にこの問題にあたるロボットを開発するのだろうか?ロボットの導入に多額の投資を行った後で、企業がより簡単に交代させられる人間の従業員を、ロボットより優先するようになるとは考えにくい。
ロボットは今後、より幅広く人間の文化の一部として取り込まれていくようになるだろう。そうした中で企業は、人間の従業員が安全で支援を受けた環境で働いていると確信できるようにするため、人間関係の監督のためにどのような機能を導入すべきだろうか。その点について、真剣に検討する必要がある。