テクノロジー

2018.03.18 18:00

「AIから偏見を排除する」 人類の課題をDeepMindが提唱

ディープマインド創設者 Demis Hassabis (Photo by Jeon Heon-Kyun-Pool/Getty Images)

ディープマインド創設者 Demis Hassabis (Photo by Jeon Heon-Kyun-Pool/Getty Images)

AI(人工知能)の導入が広まるにつれ、課題として浮かび上がったのが「AIが人間の偏見を拡大する」という問題だ。IBMやマイクロソフトの顔認識システムが、黒人の顔を解析対象とした場合、白人と比べて著しく認識精度が落ちるといった問題も報告されている。

AIのトレーニングの過程でバイアスのかかったデータを用いると、AIが偏見を助長してしまう可能性がある。今後の大きな課題となるのが、いかに“AIの公平性”を実現するかだ。

そんな中、注目を集めるのがアルファベット傘下の「ディープマインド(DeepMind)」の取り組みだ。Demis Hassabisが率いるロンドン本拠の同社は先日、研究者向けのプラットフォーム「arXiv」に論文を公開し、AIが人種やジェンダーの問題に適切に取り組むための道筋を明らかにした。

「反事実的公平性のための取り組み(Path-Specific Counterfactual Fairness)」と題されたその論文は、ディープマインドの研究者のSilvia ChiappaとThomas Gillamらが執筆した。

そこにはAIの公平性を実現するために、エンジニアたちがいかに真摯にこの問題に取り組むべきかが記されている。ここで重要なのは、コンピュータが判断を下す上で重要な“Counterfactual fairness(反事実的公平性)”という観点だ。

Counterfactual fairnessの思考プロセスでは、女性が男性であったり、白人男性が黒人男性であったりする仮定の世界においても「公平である」と考えられる判断をコンピュータが下すことが求められる。

ディープマインドの主張は、一般人にはなかなか理解が難しいものではあるが、今後の大きなポテンシャルを秘めている。同社のツールはグーグルのクラウドで広く用いられており、影響力が非常に強いからだ。

AIが背負う「倫理的責任」

性別や人種といった要素を取り除いた思考プロセスを、コンピュータに適用することは大きな意味を持つことになる。先日、ロンドンで開催されたAIのカンファレンス「Re:Work」でChiappaは、「システム全体に制限を強制するのではなく、コンピュータが自己学習するシステムを構築していきたい」と述べた。

ただし、このような研究は「究極的な公平性をどうやって定義するか」という哲学的難問にいつか、突き当たることになるだろう。

ディープマインドはその難題を視野に入れ、2017年10月に独自の「倫理部門」を立ち上げている。これにより同社は、AIにダイバーシティや人種的偏見を取り除くことの重要性を学ばせようとしている。ニューヨーク大学の「AI Now」や英国の「Royal Society」などの外部機関とも連携し、AIをいかに社会的に有用なものにしていくかの研究も進めている。

ディープマインドは、2016年に世界的な囲碁チャンピオンを打ち負かしたAIプログラム「AlphaGo」で知られるが、その中身がブラックボックス化していることが危惧として指摘されていた。

「AIの倫理性の問題はテクノロジー関係の専門家たちだけで解決できるものではない。人類学や法律学、政策担当者といった幅広い分野の人々とのコラボレーションが必要だ。また、ビジネス分野のリーダーたちの意見も聞く必要がある」と、英国のソフトウェア企業「Sage」でAI関連のコンサルタントを務めるKriti Sharmaは述べている。

「ここ1年と半年ほどの間で、AIの倫理性や透明性に関する議論は活発化している。しかし、AIをビジネスに利用したいと考える企業が増える一方で、このテクノロジーが抱える責任を認識していない人々が、まだまだ多いのが現実だ」とSharmaは話した。

編集=上田裕資

タグ:

advertisement

ForbesBrandVoice

人気記事