女性蔑視で「レイシストなAI」に激怒した黒人女子大生の話

Shutterstock.com


偏見をAIが増幅する危険

英国のベンチャーキャピタル「Balderton Capital」のSuranga Chandratillakeは、AIに仕事を奪われることよりも、AIが偏見を持つことの方が大きな問題だと指摘する。

「AIが学習をする場合、元となるデータに様々なバイアスが含まれている可能性がある。例えば、住宅ローンの融資を受ける上で一般的に男性、白人、特定のエリアに住む人が有利だとされるが、今後はそうした偏見を組み込んだAIが判断を行うことになる」

最近では、数人の研究者がグーグル翻訳にも性差別の兆候が見られると指摘している。例えば、性区別のないトルコ語のような言語を翻訳する際に、男性優位の仕事に関してグーグル翻訳は自動的に「He」を用いるという。

ソフトウェアは、論理的で客観的だと思いがちだが、そうではないことに驚かされる。「人々は、機械が理性的だと思っているが全くそうではない」とChandratillakeは話す。

人間はAIが下した判断に対しては無条件で信頼しがちだ。しかし、Chandratillakeは「AIも過去の過ちを繰り返す運命にある」と話す。

「AIの構成はブラックボックス化している。ニューラルネットワークは、意思決定の理由をうまく説明することができない」とChandratillakeは話した。

編集=上田裕資

タグ:

ForbesBrandVoice

人気記事