テクノロジー

2018.02.20 15:30

AI研究における「ブラックボックス問題」とは何か

Photo by iStock


このブラックボックス問題を解消した人工知能、つまり判断および予測過程を人間が把握できる人工知能は「説明可能なAI(Explainable AI)」もしくは「可読性のあるAI」と呼ばれている。前出の学会関係者は「ホワイトボックス化」という言葉で、その新しいAIの可能性を示唆する。
-->
advertisement

「ブラックボックスの問題があるとはいえ、ディープラーニングの革新性は決して否定することはできません。今後、人工知能の透明性をひきあげる研究が必須になるでしょう」

現在、この説明可能なAIの研究は米国防総省傘下の国防高等研究計画局(DARPA)などですでに始まっていると言われている。また、韓国・蔚山大学校も「説明可能な人工知能研究センター」を設立。所長のチェ・ジェシク教授ら研究チームを中心に、関連技術の研究を進めているという。なお、説明可能なAIの重要性を説く識者は、日本以外にも多い。

例えば、今年に入って『Machine, Platform, Crowd: Harnessing Our Digital Future』という書籍を出版した米マサチューセッツ工科大学(MIT)経営大学院のErik Brynjolfsson教授だ。彼は、人間と機械が協業する機会が増えている現在、ブラックボックス問題がその阻害要因になる可能性があると憂慮している。
advertisement

説明可能なAIに懐疑的な主張も

ちなみに、このAIのブラックボックス問題については、「そもそも説明可能にする必要があるだろうか」という率直な疑問を投げかける専門家がいることも補足しておきたい。代表的なのは、Brynjolfsson教授と前掲書を共同執筆した、科学者のAndrew McAfee氏だ。同氏は2017年5月、MITスローン経営大学院のCIOシンポジウムにパネラーとして登壇。次のように話した。

「(ブラックボックスの問題を)多くの人々が心配している。しかし、私は人間を例えに出して、その懸念に反論したい。人間は自分が下した決定や予測を説明することができる。しかしその説明が間違っている場合が多い。(つまり)私たちは、私たち自身の知識にもアクセスできずにいる。そのような理由から、(私は)他の人よりもAIのブラックボックス問題に対する懸念が少ない」(韓国メディア「CIO Korea」2017年7月10付記事より意訳して引用)

これら有識者たちの議論を整理すると、究極的には機械が出した答えをそのまま「信じられるか否か」という論点に帰着するかもしれない。見方によっては、ブラックボックスに対する議論は、“AI信仰”に対する宗教論争的な性格さえ持つ。前述の日本の研究者の印象的な言葉を最後に紹介したい。

「機械が人間よりも優れた判断をする時代は、間違いなくやってくるでしょう。成果の実例を出していけば、すでに枚挙に暇がありません。ただ、その判断を人間が全面的に信じる時代がやってくるかと言われれば、その限りではない。人間が機械を妄信する時代が来るのか、もしくは機械の考えを理解し使いこなすのか。人間は今、そんな重要な判断を迫られる局面に生きているのではないでしょうか」

AIブームの到来とともにやってきたブラックボックス問題。それは、人間の知の限界や機械との共存の在り方を投げかている、根源的なテーマなのかもしれない。

AIのトレンド、最前線の情報が満載!
「AI Lab」で関連記事をもっと読む>>

文=河鐘基

タグ:

advertisement

ForbesBrandVoice

人気記事