テクノロジー

2022.02.21 07:00

AI一人歩きに高まるリスク。不可欠なガバナンスはどう作るべきか

坂元 耕二

企業も国もAIの持つ課題に議論を重ねている/Kevin Dietsch/Getty images

前回は欧州委員会が発表したAI(人工知能)の包括的規制案などリスクベースでAIガバナンスを考える動きを紹介しました。国内でもAI活用における企業のリスクについて問題意識が高まっているものの、AIに関するコンプライアンス・プログラムや倫理ガイダンスまで設けている企業や組織は多くありません。今回はAIガバナンスのロードマップである6つのフェーズを紹介します。

グローバルのエグゼクティブを対象にしたアクセンチュアの調査によると、63%はAIの倫理的ガバナンスの必要性を認識しているが、ガバナンスの枠組みを具体的にどのように構築すればよいのかについて確信がないと回答しています。

この傾向は日本ではさらに顕著だといえます。必要性は徐々に認知されつつありますが、その方法となると手探り状態であることがほとんどです。

アクセンチュアではAIガバナンスのロードマップとして次の6つのフェーズを定義しています。

6つのフェーズ
出典:アクセンチュア

各フェーズのポイント


●フェーズ1:倫理委員会

最初にAIの専門家だけでなく、法律やコンプライアンス、倫理などの専門家、社外有識者など多くのステークホルダーを巻き込む必要があります。欧州委員会の研究・イノベーション担当委員であったモイラ・ゲーガン・クイン氏は「研究とイノベーションのプロセスにできるだけ多くのステークホルダーを巻き込んでこそ、私たちが直面している課題に対する正解を見つけることができる」と述べ、研究とイノベーションは責任あるものでなければならないと説いています。

企業によってはAI倫理審査のために、新たな組織体を組成しなければならない場合もあるでしょうし、従前の品質管理・審査部門にAI倫理審査の機能を持たせるケースもあるでしょう。大事なことは形だけの組織を作って満足するのではなく、実行力を伴った体制を現在の組織体系の中にどのように組み込むのかを十分に思案することです。

●フェーズ2:経営トップのコミットメント

責任あるAIを実践していくためには、経営トップのコミットメントが非常に重要です。なぜならば、責任あるAIとはAIのリスクマネジメントでもあり、前述の通りこれは企業リスクのマネジメントでもあるからです。ブランド価値を維持向上させていくための全社戦略としてAIを位置づけ、推進していくためには、イノベーション活動とリスク管理の両輪を回していく必要があります。これには経営トップのコミットメントが何よりも現場の力になっていくのです。
次ページ > 「取り締まり」ではなく「消防」隊員

文=保科学世(アクセンチュア)、鈴木 博和(アクセンチュア)

タグ:

ForbesBrandVoice

人気記事