フィリモン・ゾンゴ氏は、サイバー・リーダーシップ・インスティテュートのCEO兼共同創業者であり、『The Gift of Obstacles』を含む3冊の著書がある。
エージェンティックAIは、多くの専門家が予想していたよりもはるかに急速に、誇大宣伝から現実へと変貌を遂げた。ChatGPTのような生成AIが質問に応答するのに対し、エージェンティックAIはさらに一歩進んでいる。目標を与えると、学習しながら知能を向上させつつ、自律的に計画を立て、意思決定を行い、複数のタスクを実行するのだ。
世界で最も高級なブランドの1つであるモエ・ヘネシー・ルイ・ヴィトン(LVMH)は、顧客データプラットフォームの上に会話型AIエージェントを重ね、販売アドバイザーが顧客とのやり取りの最中に、自然言語で直接対話できるようにしている。このエージェントは顧客の購入履歴、製品の好み、嗜好を引き出し、データパターンに基づいて新たな製品機会や体験を迅速に特定する。
旅行業界には、エージェンティックAIの別の魅力的なユースケースがある。旅行プラットフォームはすでに、旅行者に旅行日程、目的地、予算を定義させた後、クレジットカード情報を要求し、エージェントが価格を監視して予約を確定できるようにするエージェンティックAIツールを実験している。ユースケースは、可能性を解き放つ勇気のある業界と同じくらい多様であり、小売、旅行、金融、ヘルスケアなど、さまざまな分野に及んでいる。
エージェンティックAIの普及は魅力的な機会をもたらすが、重大なリスクも伴う。適切に統治されなければ、組織を取り返しのつかない財務的損害、非倫理的行為、深刻な規制違反にさらす可能性がある。しかし、取締役会は、このゲームチェンジャーとなる技術を安全に受け入れるために、3つの実証済みの戦略を展開できる。
サプライチェーンを保護する。
AI エンジニアリングスキルの高度に専門化された性質は、最も重要なエージェンティックAIの開発、統合、保守作業のほとんどが、専門の第三者に外部委託されることを意味する。しかし、取締役会は開発作業を外部委託できても、説明責任を外部委託することは決してできない。問題が発生した場合、規制当局、株主、投資家は、第三者の開発者ではなく、取締役会に説明を求めるだろう。エージェンティックAI開発における第三者リスクを軽減するための3段階のプロセスを以下に示す。
1. 第三者を受け入れる前に、明確に定義された成功基準を伴う詳細なサプライヤーデューデリジェンスを義務付ける。
高リスクのAIエージェントの開発に関与する第三者は、理想的にはSOC 2 Type II、ISO 27001、定期的なペネトレーションテストなど、実証可能な商業グレードの保証を持つべきである。利用可能な場合、第三者はISO 42001:2023認証の証拠を提供しなければならない。これは、AI管理システム専用の新しい国際規格である。ISO 42001:2023は、従来の情報セキュリティにおけるISO 27001がAIにとって何であるかを示している。ガバナンス、リスク、透明性、責任あるAI実践に関する実証可能な保証を提供する。
2. ベンダーが妥当なレベルの成熟度を実証したら、法的に強制力のあるサイバーセキュリティ保証をサプライヤー契約に組み込む。
これには、最低限、迅速な侵害通知(エージェントの不正動作を含む)、エージェントが簡単に操作されないことを保証するための適切なプロンプトインジェクションテスト、エージェントがアクセスできるデータの明確な説明、明示的なスコープ制限が含まれる。第三者はまた、主要なモデルの更新、スコープの拡大、機能の変更の前に、経営陣の承認を求めなければならない。
3. 第三者契約は、敵対的レッドチーミングを要求しなければならない。
敵対的レッドチーミングは、AIエージェントに対する現実世界の攻撃をシミュレートして脆弱性を発見し修正する、プロアクティブなサイバーセキュリティ戦術である。これらのテストは、クラウド・セキュリティ・アライアンスのエージェンティックAIレッドチーミングガイドやOWASPのエージェンティックアプリケーション向けトップ10など、業界のグッドプラクティスに沿ったものでなければならない。
取締役会承認のリスク選好度を確立する。
トップから適切なトーンを設定するために、取締役会は、エージェンティックAIに特化した正式で明確なリスク選好度ステートメントを確立しなければならない。「組織は、適切なガバナンスと監視を伴い、責任を持ってエージェンティックAIイノベーションを追求する」といった広範なステートメントは、それが書かれた紙の価値もない。
経営陣の行動を導くために、リスク選好度ステートメントは、自律的行動の限界、人間による監視のレベル、禁止事項を明確に定義しなければならない。これらのパラメータは、自律的行動が許容できない規制上、財務上、倫理上のリスクをもたらす可能性のあるエージェンティックAIシステムに適用されなければならない。
リスク選好度は、どの行動が自律的であり得るか、どれが人間の承認を必要とするか、どれが厳格に禁止されているかを、財務上の閾値、指名された説明責任、第三者条件、違反に対する明確なエスカレーショントリガーとともに、明確に定義する必要がある。
たとえば、リスク選好度ステートメントは、規制上、財務上、倫理上のリスクを伴うエージェンティックAIは、取締役会レベルの承認、エグゼクティブオーナー、テスト済みのキルスイッチ手順(意図しない動作や安全でない動作が発生した場合にAIエージェントを迅速に停止する能力)なしには稼働しないことを明示的に義務付けることができる。
リスク選好度ステートメントは、少なくとも年1回、または重大な変更(エージェントの侵害、規制の変更、M&A活動など)の後に見直されなければならない。エグゼクティブマネジメントはまた、少なくとも四半期ごとに、稼働中のAIエージェントが表明された選好度の範囲内にあることを取締役会に正式に証明しなければならない。
経営陣に明確なガードレールの確立を義務付ける。
エージェンティックAIシステムを保護しようとする試みのほとんどは、最も重要なAIリスクを優先するのではなく、すべてのリスクを一度に軽減しようとするため、離陸時にクラッシュする。鍵となるのは、交渉の余地のない、影響力の高い一連の現実的な管理策を確立することである。取締役会が組織に稼働前に展開することを期待すべき、そのような影響力の高い管理策のトップ3を以下に示す。
1. モデル分類
すべてのAIエージェントは、それらが行う意思決定と実行するタスクの結果に基づいて分類されなければならない。たとえば、法的、財務的、規制上の結果を伴う高リスク領域で自律的に行動する高リスクエージェントは、人間が行動するための情報を表示する低リスクエージェントよりも厳格な管理を必要とする。
2. 内部ガバナンス
組織は、エージェンティックAIの開発とガバナンスの実証可能な監視を提供するために、エグゼクティブレベルのAIガバナンス委員会を設立しなければならない。取締役会から委任された権限により、委員会は組織がリスク選好度を維持し、稼働前に重要なAIエージェントを承認し、高リスクの軽減策をCレベルのエグゼクティブに割り当てることを保証する。
3. 不可逆的な行動に対する人間による確認の義務付け
大量の外部コミュニケーションや特定の閾値を超える送金など、すべての不可逆的な行動は、実行前に適切な資格を持つ人間によってレビューされることを明示的に要求する。この要件は、AIエージェントによって上書きされるべきではない。
今後の展望
エージェンティックAIは莫大な可能性を秘めており、世界経済フォーラムは、AIエージェントが2034年までに驚異的な2360億ドルの価値を持つ可能性があると推定している。しかし、このゲームチェンジャーとなる技術を最大限に活用するために、取締役会は、経営陣が堅牢なガードレールを実装し、ガバナンスフレームワークを実証することを保証しなければならない。



