使うか、避けるか AIの「説明可能性」が問われる2019年

shutterstock.com

2018年も「人工知能」や「AI」というキーワードが、ビジネスやニュースを騒がせた一年となった。「ディープラーニング」という言葉が流行し始めた数年前と比べて、日本だけでなく、世界各地でより広く市民権を得た感がある。

では、2019年は人工知能の普及や発展にとってどのような年になるのだろうか。今後より議論が高まりそうな「説明可能性」という論点から検証してみたい。

12月中旬、日本政府は人工知能の活用に関する7つの基本原則を決定しているが、そのなかでは、「AIは人間の基本的な人権を侵さない」「AIを利用した企業に決定過程の説明責任」を課すことなどが柱として盛り込まれた。この基本原則は、各国のAIに関する施策、また面接や融資というような人間の人生を左右しかねない局面でAIが利活用されはじめていることを念頭に置いたものとされている。

とどのつまり、「AIは人間が理解できる範囲で運用すべき」であるし、その判断過程は人間が把握し、仮に問題が起きた時にきちんと説明できるようにせよということになる。

一般論として、人工知能のなかでもディープラーニングなどの技術は、人間にはとても処理できないような膨大な量のデータを扱うという特徴から、判断過程が“ブラックボックス化”する欠点がかねてから指摘されてきた(もちろん、そうではないAI関連技術もある)。結果に対してもはや人間は説明することができないが、「データを学習させればなんだか妙に高い精度が高い」というのがディープラーニングの特徴であるとも言い換えることができる。

たしかに、そのような技術が面接や融資、はたまた犯罪捜査などの領域で使われることで、特定個人に大きなデメリットが生じることには事前に備えていく必要があるだろう。

「僕たちより優秀なAIがそう判断したから」という感覚が社会的に普通になってしまえば、人間が反論したり、機械に判断できない新たな可能性にかける余地が極端に少なくなるからだ。そういう意味で、「人間中心」「説明可能性」という基本原則は強く支持できるものである。

ただ一方で、筆者自身はこの基本原則が教条主義的に理解されることにはすこし懸念を覚えてもいる。理由を端的に述べるのであれば、産業競争力の観点からは「なんだか分からないが精度が高い」という方が有利にもなりえるからだ。サービスロボットやAIシステムを開発する海外企業トップからはこんな話を聞かされたこともある。

「ディープラーニングなどを使った“判断過程を追いきれないAIシステム”を製造や流通の現場に導入することについては、世界各国で賛否両論があります。自分たちが理解できない存在でも積極的に取り入れ生産性を高めようという経営者と、説明がつかないものはリスクだと避ける経営者が分かれ始めている。特に日本では後者が多いような気がします。リスクヘッジという意味では正しいとも思いますが、世界でも自動化や効率化が進んでいる日本でさらなる変革を求めるならば、AIに対する価値観の転換が必要ではないかと感じています」
次ページ > ホワイトボックス化する努力は?

文=河鐘基

ForbesBrandVoice

人気記事