偏見をAIが増幅する危険
英国のベンチャーキャピタル「Balderton Capital」のSuranga Chandratillakeは、AIに仕事を奪われることよりも、AIが偏見を持つことの方が大きな問題だと指摘する。
「AIが学習をする場合、元となるデータに様々なバイアスが含まれている可能性がある。例えば、住宅ローンの融資を受ける上で一般的に男性、白人、特定のエリアに住む人が有利だとされるが、今後はそうした偏見を組み込んだAIが判断を行うことになる」
最近では、数人の研究者がグーグル翻訳にも性差別の兆候が見られると指摘している。例えば、性区別のないトルコ語のような言語を翻訳する際に、男性優位の仕事に関してグーグル翻訳は自動的に「He」を用いるという。
ソフトウェアは、論理的で客観的だと思いがちだが、そうではないことに驚かされる。「人々は、機械が理性的だと思っているが全くそうではない」とChandratillakeは話す。
人間はAIが下した判断に対しては無条件で信頼しがちだ。しかし、Chandratillakeは「AIも過去の過ちを繰り返す運命にある」と話す。
「AIの構成はブラックボックス化している。ニューラルネットワークは、意思決定の理由をうまく説明することができない」とChandratillakeは話した。