経営・戦略

2025.12.21 11:06

AIプロジェクト失敗の95%を回避する:導入成功の骨格構築法

Adobe Stock

Adobe Stock

Steve Wilson氏、Exabeam最高AI・製品責任者。

advertisement

見出しを信じるなら、AIは企業を席巻しているように見える。しかし数字を見れば、その実態はそれほど美しくない。MITが最近発表した調査によると、生成AI案件の95%が測定可能なビジネス効果をもたらしていないという。

数十億ドルが費やされたにもかかわらず、ほとんどの企業はパイロットプロジェクトのスライド以上の成果を示せていない。技術自体に問題があるわけではない。多くの組織がそれを適切に方向づける方法を知らないのだ。正しい羅針盤がなければ、あなたも失敗組に真っ直ぐ漂流してしまうだろう。

私は過去2年間、企業向けセキュリティ製品にAIを組み込み、OWASPでグローバルAIセキュリティ研究を共同主導し、「AIをもっと活用せよ」というプレッシャーを受けながらも、その意味やリスクを十分に理解していないセキュリティリーダーたちからの相談に応じてきた。そのパターンはしばしば同じだ。

advertisement

ある有名消費財企業のCISOは最近、取締役会がAI導入を要求しているが、リスクの評価と対処をどこから始めればよいか分からないと私に語った。彼の懸念リスト:特権のエスカレーション、連鎖的論理、アクセス権限の拡大、不透明なエージェント監視。彼の本能はブレーキを踏むことだったが、それは選択肢ではないように思えた。

彼だけではない。セキュリティリーダーたちは、AIの導入を可能にするよう求められる立場にありながら、確実性が高まるのを待って慎重に進めるべきだと直感が告げているのだ。

基盤の構築

最高AI責任者という追加の役割を引き受けたとき、私はExabeamの社内AI展開を主導する任務を与えられた。CISOや最高法務責任者、CFO、ITなど、通常の企業ステークホルダーが会議に参加していた。それぞれが妥当な懸念を持っていたが、ほとんどがAIリスクについての経験が限られていた。彼らの理解の多くは、暴走するチャットボットやデータ漏洩に関する見出しから得たものだった。

私たちのAI利用許容ポリシーの最初の草案はその恐れを反映していた。AIツールとの企業データの共有を禁止し、AIを活用したすべての作業に危険物のようなラベル付けを要求していた。それは安全な導入のための枠組みではなく、麻痺状態を招くレシピだった。

私たちはすぐに、成功するAI戦略は実用的で強固なポリシーから始まることを認識した。AI運営グループは、ルールをどれだけ厳格または柔軟にすべきかを数週間議論した。最終的に、シンプルで実施可能かつ効果的なものに落ち着いた。ここでそれを共有することで、他の人々が長引くプロセスをスキップできるようにしたい。

リスクは確かに存在する。主要なAIソリューションは悪意あるプロンプトによって騙され、プロンプトインジェクションに対して脆弱になる可能性がある。最大手ベンダーでさえ間違えることがある。だからこそ、私たちは展開の基盤としてポリシーを重視した。進歩を遅らせるためではなく、安全で自信を持った大規模な導入を可能にするためだ。

以下は、私たちがプロセスで定義したポリシー領域のシンプルな概要だ:

承認済みツールリストの有効化:許可されたAIツールの最新リストが維持され、企業の認証情報と紐づけられている。これにより曖昧さが排除され、シャドーIT利用が減少し、監視、ベンダー管理、ポリシー実施がサポートされる。従業員は業務上の正当な理由を示して新しいツールへのアクセスを要求でき、可視性を犠牲にすることなくイノベーションが奨励される。

• ID・アクセス制御:すべてのAIツールは会社発行の認証情報を使用してアクセスする必要がある。個人アカウントや匿名アカウントは禁止され、すべてのAI活動は記録され、責任ある個人に追跡可能でなければならない。

データルール:機密データは、適切な保護機能を含む承認済みAIツールでのみ使用できる。モデルトレーニングが無効化された有料版のみが許可され、安全なデータ使用の境界が明確に定義される。

出力に対する説明責任:従業員は、AIツールをアシスタントとして使用する場合でも、自分が作成する成果物に対して全責任を負う。AI生成コンテンツにラベルを付ける要件はないが、説明責任は個人に残る。

• ベンダーとサプライチェーン:ベンダーは安全で責任あるAI使用ポリシーを持っていることを実証する必要がある。顧客データでトレーニングを行わないことを約束し、セキュリティやコンプライアンスに影響を与える可能性のある変更を開示する必要がある。

• コンプライアンスと実施:すべてのポリシーは、定期的な監査、包括的な報告、違反に対する実質的な結果を通じて実施可能である。これらのルールに対する例外はすべて、CISOからの明示的な承認を受ける必要がある。

承認済みツールリストによる明確化

このプロセスで最も重要な部分の一つは、承認された生成AIツールの最新リストを確立し、それらをすべて内部認証情報と紐づけることだ。個人アカウントや「無料版」アカウントは厳しく禁止されるべきだ。これにより、使用状況を監視し、ベンダー契約を実施し、ポリシー管理を組織全体で一貫して適用できるようになる。

しかし同様に重要なのは、実験のための出口を作ることだ。従業員は明確なビジネス上の正当性を持って新しいツールへのアクセスを要求できるべきだ。これにより、監視を維持しながらもイノベーションが抑制されることを防ぐ。

何が許可されているかについての曖昧さを排除することで、日常業務の摩擦を取り除いた。従業員は推測する必要がなく、ガードレールが明確であることを知りながら、単純に仕事に取り組むことができた。

95%の確率を打ち破る

「NO」の壁を築くのではなく、人々が自信を持って前進できる基盤を構築しよう。法務部門は明確なガードレールを持ち、CFOはリスクが抑制されていることを確認し、CISOは監視を行い、ITは承認されたツールセットを持つべきだ。そうすれば、ビジネスはついに絶え間ない躊躇なしに大規模にAIを使用できるようになる。

だからこそ、MITの統計に私は驚かない。ほとんどのAIプロジェクトが失敗するのは、技術が壊れているからではなく、組織が基盤を飛ばしてしまうからだ。ガバナンスなしに飛び込み、AIを目新しいものとして扱い、それが裏目に出る理由を不思議がる。

真の進歩はポリシーから始まる。障壁としてではなく、他のすべてを可能にする構造として。明確で実施可能なポリシーにより、チームはより速く動き、安全に拡大し、不確実性ではなく意図を持ってAIを採用できるようになる。それが偏執から進歩への移行方法であり、まず基盤を構築することから始まる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事