経営・戦略

2025.11.12 16:11

AIによる持続的なビジネス価値の創出には標準化と実施体制が不可欠

shutterstock_2603901585

shutterstock_2603901585

スコット・ゾルディ氏、FICO最高アナリティクス責任者。

私は、ビジネス界で広く共有されている「AIの黄金時代」にいるという考えに同意している。しかし、真の黄金—人工知能(AI)と生成AI(GenAI)への投資からの持続的なビジネス価値の創出—は、多くの組織にとってまだ現実からほど遠い状況だ。MITのNANDAイニシアチブによる最近の調査を含む多くの研究がこれを裏付けており、GenAIパイロットプロジェクトの95%がパイロット段階で停滞していることが明らかになっている。

しかし、見通しは決して悪くない。AI開発標準を遵守することで、AIおよびGenAI投資から確実なリターンを得る現実的で達成可能な道筋が存在する。

これは、私の会社であるFICOとCorinium Global Intelligenceが発表した最近のレポートの主な発見である。「2025年金融サービスにおける責任あるAIの状況:大規模なビジネス価値の解放」は、調査対象となった最高アナリティクス責任者(CAO)と最高AI責任者(CAIO)の56%以上が、責任あるAI標準をAIおよびGenAI投資の投資収益率(ROI)向上に寄与する主要因として定義していることを明らかにした。これらのCAOとCAIOは、世界中の250人以上の金融サービス業界のC級幹部を対象とした調査の一部であり、最高技術責任者(CTO)や最高情報責任者(CIO)も含まれていた。

組織が責任あるAI標準を遵守するためにソフトウェアとプロセスをどのように適用するかは、AI標準自体の定義と同様に重要である。調査対象者の75%が、部門横断的な協力の改善と統合AIプラットフォームの組み合わせにより、AI ROIを50%以上向上させる可能性があると回答した。調査対象者の95%が「AIイニシアチブとビジネス目標の間の整合性の欠如」を指摘している。

これは、持続的なビジネス価値が責任あるAI標準を通じて調整され、実施できることを示している。

責任あるAI標準は差別化要因である

堅牢で説明可能、倫理的かつ監査可能なAIおよびGenAIシステムの開発は、バイアスや誤情報などの潜在的リスクに対する安全策となる。リーダーには思慮深く実践的なアプローチが必要だ。AIが明確性と説明責任を念頭に設計されれば、責任ある展開を確保し、運用化して長期的な価値を引き出すことがより容易になる。

他の業界の思想的リーダーもこの見解を共有している。マッキンゼー・アンド・カンパニーが2024年に発表した記事「AIの信頼構築:説明可能性の重要な役割」では、著者らは次のように述べている。「AIの潜在的価値を最大限に引き出すためには、組織は信頼を構築する必要がある。実際、信頼はAIを活用した製品やサービスの採用の基盤である...AIへの信頼は、AIを活用したソフトウェアの出力と、それがどのように—少なくとも高いレベルで—作成されるかを理解することによってもたらされる」。

説明可能性はAIを理解するための一側面に過ぎない。これらのテクノロジーの複雑な性質を考えると、開発ライフサイクル全体にわたって詳細かつ緻密な標準を実施することが不可欠である。開発後は、AIを適切に展開し、監視する必要がある。

統合AIディシジョニングが標準の実施をどのように支援するか

IDCはアナリティック・ディシジョニングのカテゴリを「意思決定プロセスのすべてのステップを完全または部分的に自動化することにより、組織が意思決定を設計、エンジニアリング、調整するのを支援するソフトウェア技術」と説明している。

統合されたディシジョニング開発アプローチは、データ管理、AIと機械学習の洞察、意思決定ロジック、実行機能をシームレスに統合する。責任ある継続的な使用を確保するには、正確な展開、継続的な監視、適切なデータフロー、結果の整合性に重点を置く必要がある。これらの機能により、システムパフォーマンスの完全な透明性が確保され、AIおよびGenAIモデルが意図したとおりに機能し、正しく適用され、出力が確立された企業および責任ある標準に合致していることが確認される。

ディシジョニング開発機能を責任あるAI実践に運用化するために、リーダーは以下を行う必要がある:

• 解釈可能なニューラルネットワークを採用する。

• GenAIモデルの信頼スコアが、モデル出力を使用して自信を持って意思決定するのに十分であることを確認する。

• 開発時と比較して、展開中の潜在的特徴におけるバイアスのしきい値を監視する。

理由コードと潜在的特徴の活性化のシフトを監視する。これらはどちらも、モデルがトレーニングされた行動から逸脱するデータを明らかにする。

• モデルのパフォーマンスとモデルドリフトについて本番システムを監視する。

最後に、開発ライフサイクル全体だけでなく、展開中も監査可能性が必要である。これは、ブロックチェーン技術で作成されたものなど、不変の記録を通じて達成でき、責任あるAI標準の遵守の証明と、モデルが遵守して運用されていることを確認するための継続的な監視を提供する。

ブロックチェーンなどのモデル開発資産へのコミットメントにより、AIおよびGenAIシステムの展開、監視、誤った方向に進んだ場合の使用停止方法に関する推測が不要になる。逆に、同じAIブロックチェーンには、企業ガバナンスおよび規制要件の遵守の証明をサポートする資産が含まれる。

始めよう

当社の調査に回答したCIOとCTOによると、組織の12%のみがAI標準を運用化しているという。マッキンゼー・アンド・カンパニーも同様の進捗の欠如を指摘している。2024年のAIの状況に関する調査では、「回答者の40%が説明可能性をGenAI採用における主要なリスクとして特定した。しかし同時に、わずか17%がそれを軽減するために現在取り組んでいると回答した」。

責任あるAI標準を採用することは、AIおよびGenAIに投資されている資金の完全なリターンを実現するために不可欠である。テクノロジーリーダーシップチーム、CAO、CAIO、CIOまたはCTOが一堂に会して、組織のAI開発標準を定義する時が来ている。責任あるAIは達成可能であり、標準を実施できる企業にとって決定的なレバレッジとなり得る。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事