Viv Babber氏はLean Six Intelligence Groupの最高経営責任者(CEO)兼AIストラテジストである。
人工知能(AI)は急速に取締役会での流行語から取締役会の命題へと変化した。経営者たちはスピード、効率性の向上、自動化、コスト削減の可能性に魅了されている。まるで渋滞のない高速道路に合流したかのような感覚だ。アクセルを踏み込み、全速力で前進している。レースに参加していなければ、すでに遅れをとっているという感覚がある。しかし問題はここにある:誰もが危険がいっぱいの道路で、シートベルトを締めずに高速で運転しているのだ。
今日の経営者にとって最も危険な盲点は、AIを導入するかどうかではなく、いかに責任を持って導入するかという点にある。ガバナンス、監視、信頼性がAI導入競争の中で置き去りにされているが、そこに最大の財務的、運用上、評判上のリスクが潜んでいる。
私はこれをよく目にする。特に医療分野において。この状況は、20年前にHIPAA(医療保険の携行性と責任に関する法律)が導入された時を思い起こさせる。組織は要件を十分に理解せずにシステムを導入することを急いだ。結果として、莫大な罰金、評判の損害、そして多くの手戻りが発生した。AIの場合、さらにリスクは高い。我々はより速く動いているだけでなく、患者、顧客、従業員、規制当局への影響範囲は、これまで直面したどのようなものよりも広範囲に及ぶ。
リスクが潜む場所
経営者はAIのリスクを認識していないわけではない。彼らは一般的な懸念事項を挙げることができる:高コスト、プライバシーの懸念、コンプライアンス、またはツールを理解していない従業員からの抵抗。これらは現実的だが、表面的なものだ。氷山の一角に過ぎない。
本当の盲点はガバナンスにある。あまりにも多くの組織が、以下のような質問をせずにツールを導入している:
• AIが間違いを犯した場合、誰が責任を負うのか?
• 機密データを漏洩させずにこれらのツールを使用するよう、どのように従業員を訓練するのか?
• 誰が出力を検証し、時間の経過とともに生じる変化を監視するのか?
• ベンダーが責任を負うことを拒否した場合、我々はどのような責任を受け入れるのか?
これらの質問が問われないのは、経営陣が誰か他の人がそれを処理していると想定しているからだ。IT部門が対応するだろう。コンプライアンス部門が対応するだろう。法務部門が対応するだろう。しかし罰金が科せられたり、評判の損害がトップニュースになったりした時、責任を問われるのはCEOと取締役会なのだ。
だからこそ私はよく言う:AIは単に「人間を介在させる」だけでなく、「経営者を介在させる」必要がある。ガバナンスは技術的な決定ではなく、経営判断なのだ。
見て見ぬふりをすることのコスト
ガバナンスの欠如がもたらす財務的損失は驚くべきものだ。AIプロジェクトの半数以上がパイロット段階を超えることはなく、成功したものでさえ、ガードレールを設置していれば防げたはずのミスを修正するために予算を浪費している。医療分野では、一つのエラーが訴訟、規制上のペナルティ、そしてもはやシステムを信頼しなくなった臨床医のバーンアウトを意味する可能性がある。
従業員がAIリテラシーを欠いている場合、運用上のリスクは増大する。従業員が適切な使用方法について訓練を受けていなかったため、知らずにAIツールと機密データを共有してしまったケースを耳にしたことがある。このような事故は信頼と収益に大きな損害をもたらす。
そして評判の損害?それはソーシャルメディアの速さで起こる。偏見のある採用アルゴリズムや設計の悪いチャットボットは一夜にしてバイラルになる可能性がある。一度信頼が失われれば、どれだけのコスト削減をしても取り戻すことはできない。
経営者のマインドセットの転換
私がコーチングする経営者たちは、最初はガバナンスに抵抗を示すことが多い。それは障害物、渋滞のように感じられる。私はこれを、精神医学で治療した抵抗を示す患者たち—必要であっても治療や薬を望まない患者たち—に例える。経営者も同じことをする。彼らは「これは私の問題ではない。技術チームに任せよう」と言う。
しかしガバナンスは負担であってはならない。適切に行えば、それは差別化要因となる。従業員がAIポリシー、トレーニング、ガードレールが整っていることを知れば、内部的にも外部的にも信頼が構築される。医療分野では、信頼が不可欠だ。システム内の全員が、あなたの組織がAIに対応する準備ができていると確信できることが重要であり、それは不可欠なガードレールなしには実現できない。
経営者が今日取るべき3つのアクション
罰金を避け、ブランドを保護し、責任ある経営を行うことに真剣であれば、以下の3つの出発点がある:
1. 早期からガバナンスを構築する
展開後に付け足すのではなく、初日から機能横断的なガバナンスチームを結成する:コンプライアンス、法務、技術専門家、倫理学者、現場スタッフを集める。彼らの役割はリスクを特定し、境界を設定し、AIが組織の価値観と一致していることを確認することだ。これはAIシステムのための予防医療—ウェルネス訪問のようなものと考えよう。
2. ベンダーを調査する
AI市場は華やかな約束に満ちている。魅了されないこと。厳しい質問をしよう:トレーニングデータはどこから来ているのか?バイアスにどう対処しているのか?誰がデータを所有しているのか?何か問題が発生した場合、誰が責任を負うのか?ベンダーが明確に答えられない、または責任を受け入れることを拒否するなら、それは危険信号だ。規制当局が来た時にあなたに責任を押し付けるような契約には署名しないこと。
3. 組織全体でAIリテラシーを高める
人々が理解していなければ、ポリシーは無意味だ。ほとんどの企業はまだオンボーディングにAIトレーニングを含めていないが、従業員にツールを責任を持って使用することを期待している。経営者自身が認定を取得し、トレーニングに参加し、学んでいることを示すことで、模範を示すべきだ。経営幹部がリテラシーを実証すると、それが基調を設定する。AIの流暢さは財務リテラシーのように扱われるべきだ:不可欠で、保護的で、信頼の基盤となるものとして。
C層への呼びかけ
AIは単なるもう一つのITプロジェクトではない。それはビジネスのあらゆる部分に触れる。規制当局が来た時、対応を求められるのはコンプライアンス責任者やデータサイエンティストではない。あなた自身だ。
経営者はガバナンスを自分の役割の中核として捉える必要がある。AIがあなたの組織にとって何を意味するのかを理解し、調整する。AIがすでに使用されている場所を把握し、リスクに対処することで適応する。トレーニング、説明責任、目に見える取り組みを通じて模範を示す。
緊急性は高まっている。欧州のAI法から、テキサス州、コロラド州、ユタ州、カリフォルニア州の州レベルの規則まで、新しい法律が急速に制定されている。テキサス州だけでも、1月から「責任あるAIガバナンス法」の施行が始まり、違反1件につき最大20万ドルの罰金が科される。医療機関は最終的に罰金だけでなく、法律違反が見つかった場合、免許への脅威に直面する可能性もある。金融、小売、教育、輸送などの他の業界も遅れをとることはないだろう。
違反が積み重なるのを待つ組織は、莫大なコストをかけてシステムを再設計する必要に迫られることになる。今日、積極的な措置を講じる組織は、自らを、顧客を、そして従業員を守ることになる。
AIにおける盲点は技術そのものではない。それを統治するリーダーシップの不在だ。その現実を無視する者は、お金だけでなく、信頼、信用性、そして最終的には事業を行う免許を失うリスクを負う。立ち上がる者は、ガバナンスを最大の競争優位性に変えるだろう。



