テクノロジー

2022.02.21 07:00

AI一人歩きに高まるリスク。不可欠なガバナンスはどう作るべきか

企業も国もAIの持つ課題に議論を重ねている/Kevin Dietsch/Getty images


●フェーズ3:トレーニング&コミュニケーション

AIやデータアナリティクスの研修を実施し、自社内でDX(デジタルトランスフォーメーション)人材を育成する動きが国内でも進んでいます。これからはAI開発プロセスの裏に潜むバイアスとそのリスクを正しく認識し、AIリスクを企業リスクととらえ、技術的観点のみならずビジネス的観点でもリスクの軽減やモニタリングができる人材が必要になってきます。
advertisement

しかしこれらをすべて担える人材を育成するのは困難ですし現実的ではありません。肝心なのは誰にどのような役割を担ってもらうかを明らかにし、現在実施されているAI・データアナリティクス教育と整合させながら、責任あるAI実現に向けて追加で必要となるスキルや知識を洗い出し、自社の成熟度に合わせて研修メニューを設計していくことです。国内でもこういった取り組みに着手している企業も出始めています。

●フェーズ4:レッドチームと“消防隊員”

レッドチームとは、組織内にいながらも独立した立場で、AIプロジェクトに対し公平かつ批判的な視点でレビューや分析を実施する役割を担うチームです。一方、部門内でも普段からAIプロジェクトのリスクに目を配る人材も必要になります。AIプロジェクトを監視すると聞くと、AIの「取り締まり」という印象を持たれる方もいるかと思います。

しかし、AIによるイノベーション創出活動を阻害することなく、リスクを管理していくにあたっては「取り締まり」ではなく「消防」の方がよいと考えられます。消防隊員は普段の訓練から消防の知識やスキルを身に着け、火事の危険について皆に周知させるとともに、いざ火事の兆候があるときには、現場に駆け付け状況把握と場合によっては初期消火を行い、被害を最小限に食い止めます。AIのリスク管理においても、まさに「AIの火事」を早期に検知し、初期消火を行うことが重要です。
advertisement

●フェーズ5:ポジティブな影響をもたらす倫理指標

ESG(環境・社会・企業統治)指標が重視されていることからも分かる通り、今後は企業や組織が提供するAIが社会に対してどのような倫理的な影響力があるのか、消費者が関心をもつ社会課題に対してどのような影響があるのかについてより深く考えていく必要があります。倫理的な姿勢が組織文化として根付いている企業や組織のブランドは、消費者からの信用と信頼を勝ち得ることにつながり、AIの倫理指標をブランドに反映させるためには企業文化の中で「倫理」が最優先である必要があります。

一方、倫理面への取り組みに対する評価が自社・自組織に対して甘く、自分自身に対して過大評価していないかという点にも注意を払うべきです。倫理指標として明確な基準を用意し、それをもとに公平かつ自己批判的に判断しなければなりません。

●フェーズ6:問題提起できる環境

責任あるAIの導入を成功させるには、リーダーシップと企業文化の醸成が不可欠です。ある欧州の大手金融サービス企業は、自社のモデル全体にアルゴリズムによる公正さを導入することを検討していました。経営層からの強い賛同と支援によりオープンで協力的な文化が生まれ、社内の幅広い分野のチームがアクセンチュアと協力してアルゴリズムの公平性について学び、探求し、懸念事項があれば自由に提起することができるようになりました。

知識やサポートが築かれることによって、偏見や公正さにまつわる不安や懸念が取り除かれ、オープンで協力的な文化が醸成されたといえます。このような企業文化があるかないかは責任あるAIの実現に向けて大きな差となります。そしてこの差が企業の収益性まで左右する日が訪れようとしているのです。
次ページ > 日本企業が優先的に検討すべき課題

文=保科学世(アクセンチュア)、鈴木 博和(アクセンチュア)

タグ:

advertisement

ForbesBrandVoice

人気記事