顕在化している、AIにまつわる6つの新リスク
一方で、AI研究の深化や利用ケースの拡大によって、人権やコンプライアンスに関わる新たなリスクも顕在化しています。具体的には次の6つが新たなリスクとして挙げられ、経営者やAIの管理者がしっかりと認識し、対策することが求められます。
1)権力の集中
AIの成果や生み出す効果が、AIを開発・提供するごく一部の限られたプレイヤーや既得権益者に集中する可能性がリスクとして顕在化しています。AIの開発には学習のためのデータが必要になります。GAFA (Google、Apple、Facebook、Amazon)に代表されるような巨大プラットフォーマーには、そのプラットフォームを利用するユーザーに関する膨大なデータが存在しています。これらのデータを使ったAIは、ユーザーの利便性を大きく向上させるだけでなく、ユーザーが増えれば増えるほどその効果が増大するという「ネットワーク効果」があります。
したがってユーザーが増える→データが増える→AIの性能が向上する→利便性が向上する→ユーザーが増える…という好循環が生まれることになります。しかしこれは市場独占の危険性と隣り合わせであり、市場における競争環境をゆがめるとして規制強化の動きが出ています。
2)AIによる偏見や差別
前回の記事では、分析結果の説明可能性だけでなく倫理的な観点での検証や、AIの結果の透明性を担保する「責任あるAI(Responsible AI)」の視点も欠かせないと説明しました。AIの導き出す結果は学習データ次第です。このため、AIが「愚かな答え」を出してしまうケースが実際に発生しており、偏見や差別の発生を防ぐことが重要です。例えば、顔認識AIには学習データの偏りによりその認識精度に人種間で差が生じることが指摘されています。2019年に米国立標準技術研究所(NIST)が189種類の顔認識アルゴリズムを調査*1したところ、白人に比べて黒人やアジア系などの認識率に大きなもので100倍もの差があったと報告しています。そして実際2020年には米国デトロイトで顔認識AIの誤認識が原因と思われる誤認逮捕も発生してしまっています。
*1/2019年のNISTの報告とされるもの。Face Recognition Vendor Test (FRVT), Part 3: Demographic Effects (nist.gov)
学習データ内に存在している不平等・偏見・差別がAIに影響を及ぼし、その結果AIの出力にも偏りが出てしまうという事例は医療における健康リスク診断や与信審査、人事判断、会話ボットなどでも報告されており、サービス中止になるケースも出ています。AIが身近な存在になったからこそ、それによって偏見や差別が助長されないよう留意する必要があるのです
3)透明性の欠如
AIのアルゴリズムが複雑化してAIが出した判断内容とそのプロセスを人が説明できず、ブラックボックス化するリスクがあります。AIを改善していくためにはAIがなぜその判断を行ったのかを知る必要があります。大量の学習データから取捨選択を繰り返して「たまたま」うまくいったものを採用するのではあまりにリスクが大きすぎます。
2016年に開催されたデータ分析の国際会議KDDで、ワシントン大学の研究チームはニューラルネットワークなどの複雑なモデルを、より平易で解釈しやすいモデルに置き換え、判断理由を生成する方法を提案して注目を集めました。彼らはハスキー犬画像と背景に雪景色を含んでいるオオカミ画像を意図的に選び、画像認識のモデルを作りました。これで入力された画像が「ハスキー犬」なのか「オオカミ」なのかを自動認識できるようになるのですが、「オオカミ」と誤認識されてしまった「ハスキー犬」画像に対し、前述の方法で判断理由を求めると「背景の雪景色」であることが判明したのです。この画像に映っているのは確かに雪景色の中のハスキー犬だったのですが、このAIは本来認識してほしいものとは全く関係のない「背景」を使って分類していたことが分かったのです。
一見するとうまく判断できているように見えるAIも人間が意図していない情報に基づき判断しているかもしれません。透明性が欠如しているとそういったAIを妄信することになりかねないのです。