公平なアルゴリズムは存在しないのか。日本企業にAI倫理が必須になるワケ

Shutterstock.com


「責任あるAI」を実現する4つのアプローチ


AIをビジネスに活用するにあたっては、PoC(概念実証)のレベルから全社戦略のレベルにスケールさせることが大きな課題となります。多くの経営者・ビジネス担当者・開発者はAIシステムが確実かつ期待どおりに動作することを確信したいと考えていますが、実際のところAIシステムのモニタリング方法に知識のあるリーダーは4割ほどしかいません

AIの信頼性を構築するためには、データやAIモデルのバイアスを検知し緩和するデータサイエンスチームの存在が不可欠です。多くの企業がデータサイエンスの社内研修を実施していますが、これからはバイアスの検知と緩和のための適切なスキルとプロセスを持っていることが必須になってきます。また、AIに判断を任せる対象とその結果の利用方法に関し、審査プロセスの設計と意図しない結果を回避するための措置や体制を、企業の倫理的ガバナンスの中に組み込んでいく必要があります。 責任あるAIは純粋に技術的な追求だけではなく組織やプロセス、スキルの要素も含まれているのです。

責任あるAIへのアプローチは1つではありません。自社の状況に合わせて以下のような4つの重要な分野に取り組みながら、イノベーションを促進する環境を作り出すことが重要です。

(1)ガバナンス:企業全体でAIのリスク・倫理面での判断、およびAI戦略を実行していくようなガバナンス体制の構築
(2)技術:AI開発フローで混入する潜在的リスクについて理解するとともに、リスクを軽減し継続的にAIモデルのモニタリングを可能にするプラットフォームの開発
(3)組織・人:AI倫理研修などを通して人材を育成し、責任あるAIを重視する組織風土を醸成する。また「人間+機械(AI)」のコラボレーションにより新たな働き方と生産性を手に入れる
(4)ブランド:企業のコアバリューと整合させながらAI活用における倫理的なガードレール、説明責任構造を明確化し、付加価値によるブランド価値の維持・向上を図る

特に「人間+機械(AI)」のアプローチは、責任あるAI実践の中心です。

AIは過去のデータから学習し、現状を診断したり未来を予測することも可能にしてくれる技術ですが、万能ではありません。

例えば、どういった属性の消費者がどこで、いつ、何を購入したのかのデータがあるとします。これを活用して消費者の購買行動を予測できるAIが開発できたとしましょう。このAIモデルがその時点で高精度であったとしても安心することはできません。
次ページ > AIの宿命「概念ドリフト」現象

文=保科学世(アクセンチュア)、鈴木 博和(アクセンチュア)

タグ:

ForbesBrandVoice

人気記事