ビジネス

2022.10.20

今、ビジネスで強く求められる「責任あるAI」を実現するために

Getty Images

人工知能が普及するにつれ「責任あるAI」(ならびに密接に関連する「倫理的AI」)に関する議論が活発化している。AIはより多くの意思決定の仕事を担うようになっているが、私とアンディ・トゥライが最近のHarvard Business Reviewの記事(AI Isn’t Ready to Make Unsupervised Decisions)で説明しているように、いまだにその動作はモデルとデータに反応するアルゴリズムがベースになっている。その結果、AIは全体像を見逃すことが多く、ほとんどの場合、その決定の背後にある理由を分析することができない。また共感性、倫理性、道徳性を重視する人間的な資質が備わっていないことも確かだ。

こうした懸念はAIを導入している企業の経営陣の中で共有されているだろうか? そう確かに、MIT Sloan Management Review(MITスローンマネジメントレビュー)とBoston Consulting Group(ボストンコンサルティンググループ)が発表した、1000人の経営者を対象とした最近の調査結果(MIT-BCG調査報告)は、それを裏づけている。しかし、この調査によれば、ほとんどの経営者が「責任あるAIは安全性、偏見、公平性、プライバシーの問題など、テクノロジーのリスクを軽減するのに役立つ」ことに同意しながらも「その優先順位づけに失敗したことを認めている」ことが判明した。つまり、AIに関していえば、強力な魚雷が全速前進しているということだ。しかし訴訟や規制、不利な判断などを招きかねないそうした「魚雷」には、もっと注意を払う必要がある。同時に、責任あるAIをさらに遵守することで、具体的なビジネス上の利益を得ることができるかもしれない。

MIT-BCG調査報告の著者であるエリザベス・M・レニエリス、デビッド・キロン、スティーブン・ミルズは「AIを採用する動きは急増しているが、責任あるAI は遅れている」と報告している。「このギャップが失敗の可能性を高め、企業を規制、財務、顧客満足度のリスクにさらすことになる」

調査対象のほぼ全員が、AIをより責任あるものにしなければならないという理屈は理解しており、84%が経営の最優先事項であるべきだと考えている。調査対象となった経営者の約半数である52%が、自社ではある程度の責任あるAIを実践していると回答している。しかし、完全に成熟したプログラムを有していると答えたのはわずか25%で、残りの人たちは、実装の規模や範囲が限定的であると述べている。

「責任あるAI」の意味をめぐる混乱とコンセンサスの欠如が、制限要因になる可能性がある。調査からは、この用語が組織内で一貫して使われていると考えている回答者は、わずか36%であることが判明した。なお、この調査の著者たちは「責任あるAI」を「AIシステムが個人や社会の利益のために開発 / 運用され、なおかつ変革的なビジネスインパクトを達成できるようにするための、原則、方針、ツール、プロセスを備えたフレームワーク」と定義している。

「責任あるAI」の実現を阻害するその他の要因としては、スタッフの「責任あるAI」に関する専門知識や人材育成 / 知識の不足(54%)、シニアリーダーによる優先順位付けや注意の不足(53%)「責任あるAI」導入のための資金やリソースの不足(43%)などが挙げられている。

レニエリスたちは、責任あるAIで先行している企業のセグメントを特定し、そうした企業が責任ある行動をAIだけでなく、技術、システム、プロセス全体にわたって適用している傾向があることを示した。彼らは報告の中で「これらの先進企業にとって、『責任あるAI』とは、特定の技術というよりも、企業そのものである」と述べている。

このような姿勢の結果として、こうした先進的な企業は、ビジネス面でも顕著な効果を上げている。「責任あるAI」実装を始めてから実現されたメリットとしては:より良い製品とサービス(50%)、ブランド差別化の強化(48%)、イノベーションの加速(43%)などが挙げられている。
次ページ > 「責任あるAI」のリーディング企業になるための推奨事項

翻訳=酒匂寛

ForbesBrandVoice

人気記事