経営・戦略

2025.12.08 14:33

AIで組織の回復力を高める:信頼性あるアクションへの変換法

Adobe Stock

Adobe Stock

デイブ・ワグナー氏は、人々の安全と組織の運営を支援するEverbridgeの社長兼CEOである。

advertisement

レジリエンスとは、サイバー攻撃、自然災害、システム障害などの混乱に対して、組織がどのように準備し、対応し、回復するかということである。そのような瞬間には、意思決定は迅速で正確かつ信頼できる情報に基づいていなければならない。人工知能はそのようなレジリエンスを強化する大きな可能性を持っているが、スピードよりも信頼性が重要である。透明性、人間による監視、明確な保護措置を伴って責任を持ってAIを採用するリーダーは、危機管理における信頼を長期的に構築することができる。

つい最近まで、クラウドは懐疑的に見られていた。重要なアプリケーションや機密データを第三者に委ねることはリスクがあると感じられていた。10年後の現在、SaaSはデフォルトになっている。現在、ほぼすべての組織がクラウドベースのアプリケーションに依存しており、元に戻ることを検討する組織はほとんどない。何が変わったのか?技術だけではなく、それが導入された方法だ:段階的に、透明性を持って、そして安全対策を講じながら。

同様の慎重な信頼構築が、現在レジリエンスのためのAIにも適用されており、リーダーはあらゆる決断が人々と業務に影響を与える場面でイノベーションと説明責任のバランスを取る必要がある。

advertisement

レジリエンス性能を向上させるための人工知能の使用は、同様の岐路に立っている。誰もがその可能性を認識しているが、多くのリーダーは慎重なままである。そしてそれは当然だ。思慮深く使用されれば、AIはノイズを排除しレジリエンスを加速させることができる。注意なく展開されれば、混乱を生み、リスクをもたらし、信頼を損なう可能性がある。

問題はAIを使用するかどうかではなく、どのように責任を持って使用するかである。

AIはコンテキストなしでは誤解を招く可能性がある

サイバー攻撃から厳しい気象条件まで、重大な事象は圧倒的なデータを生成する。リーダーは何が起きているのか、どこで起きているのか、そしてそれが人々や業務にどのような影響を与える可能性があるのかについて、迅速で明確な洞察を必要としている。

一般的なLLMは危機の瞬間のために設計されていない。それらは幅広いリアルタイムデータフィードのために特別に構築されていない。イベントと組織の両方のコンテキストを持っていない。過度に一般化したり、誤った方向に導いたりすることが多い。放置すれば、意思決定を加速するどころか遅らせるリスクがある。レジリエンスにおいては、スピードと正確さがすべてである。

目的に特化したAIを選択する

答えはより多くのAIではなく、適切なAIである。リスクインテリジェンスを処理するために訓練された目的特化型モデルは、組織が危機における情報の洪水を整理するのに役立つ。

リーダーは以下のようなAIを要求すべきである:

• 標準ベース:セキュリティとコンプライアンス要件に合致している

• 安全に管理されている:すべての重要インフラに適用されるのと同じ厳格なプロセスによって管理されている

• 成果重視:実験ではなく、意味のある結果を提供するように設計されている

AIが目的に特化して構築されている場合、信頼されるプロセスに取って代わるのではなく、それらを強化する。

人間をループに保つ

AIはレジリエンスを加速できるが、判断力に取って代わることはできない。強固なシステムは、出力を検証し、コンテキストを提供し、最終判断を下すために、人間を常にループに組み込んでいる。

AIを増幅器と考えよう。それはアナリストをより速くするが、彼らを不要にするわけではない。危機の最初の瞬間に、AIは初期の兆候を表面化させ、人間のチームよりも速く新たなリスクにフラグを立てることができる。より多くの情報が利用可能になるにつれて、人々は判断を提供する—事実を検証し、コンテキストを追加し、対応を洗練させる。その進行全体を通じて人間を中心に保つことで、最も重要な決断が必要な時にアルゴリズムへの盲目的な依存を防ぎ、説明責任を確保する。

保護措置について透明性を持つ

懐疑論を克服する最良の方法は透明性である。リーダーは以下を明確に表明すべきである:

• AIがどのように使用されているか

• どのデータに触れるか

• どのデータに触れないか

重要な保護措置の一つ:企業顧客は自社の企業データがAIのトレーニングに使用されることを望まない。企業向けAIは、組織がガバナンスポリシーとの整合性を維持できるように設計されるべきである。AI使用に関する安全対策は、AIが責任を持って適用されているという従業員、顧客、規制当局の間の信頼を構築する。

責任あるAIの姿

原則は重要だが、信頼性は実践でそれらを示すことから生まれる。Everbridgeでは、AIに対して慎重で標準ベースのアプローチを取っている。

これには人間が関与し続けることが含まれ、AIは意思決定を強化するが、決して置き換えることはない。さらに、顧客データは許可なくAIモデルのトレーニングに使用されることはない。私たちに委託されたデータは保護されたままである。最後に、AIはレジリエンスのために特別に構築されている。モデルは関連性があり、実行可能で透明性のあるリスクインテリジェンスを提供する。

このアプローチは最新技術を追いかけることではない。重要な瞬間に私たちを頼りにする人々の信頼を獲得し、維持することである。

懐疑論から信頼へ

クラウドは明確な教訓を提供している。それが信頼されないものから不可欠なものになったのは、誇大宣伝が採用を強制したからではなく、リーダーがそれを慎重に導入し、その価値を証明し、途中でリスクを管理したからである。

AIも同じ道をたどるだろう。成功する組織は最も速く採用する組織ではない。最も責任を持って採用し、イノベーションと透明性、人間による監視、安全対策のバランスを取る組織だろう。

レジリエンスは信頼に依存している。そして信頼は、AIが目的と注意を持って導入されるときに構築される。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事