経営・戦略

2025.12.01 09:46

なぜほとんどのAIがビジネスで失敗しているのか—そして解決策

Adobe Stock

Adobe Stock

RevvのCEOであるアディ・バスラ氏は、ADAS(先進運転支援システム)のキャリブレーション、診断、整備工場の効率化のためのAI搭載ツールで自動車修理業界に変革をもたらしている。

advertisement

あらゆる主要な技術的変革には予測可能なパターンが伴う。初期採用者は、その技術自体が人気があり、新しく、トレンディであるという理由や、投資判断を支持するためなどの理由で技術を追い求める。

その間、根本的な問題には応急処置が施されるだけだ。

私たちはこれをデジタルトランスフォーメーション、クラウドコンピューティング、モバイルアプリで目にしてきた。そして今、AIでも同じことが起きている。

advertisement

MITの新しい研究は、多くの人が疑っていたことを確認している—企業のAIパイロットプロジェクトの95%が失敗しているのは、技術自体が原因ではなく、組織が間違った問題を解決しようとしているからだ。

ほとんどの企業はより良いデータ処理が必要だと考えているが、実際に必要なのはより良いデータ解釈なのだ。

Revvのチームと私は、誤った解釈が文字通り人命を危険にさらす可能性のある業界でプラットフォームを構築する過程で、この教訓を学んだ。

私たちの発見は、なぜほとんどのAIイニシアチブが失敗するかについてのMITの調査結果と完全に一致している。

誰もが間違える問題

今日の自動車修理工場は圧倒的な現実に直面している。バックアップカメラから自動ブレーキまで、あらゆる安全システムを制御する先進運転支援システム(ADAS)の組み合わせは50万種類以上存在する。これらはメーカーやモデルによって大きく異なるが、個々のトリム、パッケージ、モデル年の中でも違いがある。それぞれの組み合わせには、適切に機能していることを確認するための特定の手順、許容範囲、環境条件が必要であり、各メーカーはこれらのシステムを適切にキャリブレーションする方法について詳細な文書を提供している。

しかし繰り返すが、50万種類の組み合わせは、調査に多くの時間を失い、何かを見逃す可能性があることを意味する。

ChatGPT以降の世界での自然な反応は表面的には理解できる:「すべての非構造化メーカーデータにAIを適用すればいい」。

しかしそこに問題がある:コンテキストのない生データは危険な誤解釈を生み出す—特に幻覚(ハルシネーション)が混ざると。

例えば、2019年のアウディTTSが工場に入ってきたとする。AIは前方カメラのキャリブレーションに必要なメーカーの仕様を即座に引き出すことができる。正確な測定値、必要なターゲット、さらには環境条件まで把握できる。

専有情報を除けば、誰もがデータにアクセスできるが、そのデータをどう解釈するか?

それはマニュアルには書かれていない。それは長年の直感だ。そこに長年の専門知識が必要となる。

一般的なボットが理解していないのは、工場のコンクリートの沈下により床の許容値の読み取りがわずかに狂う可能性があること、またそれがキャリブレーション手順にどう影響するかということだ。「十分に近い」読み取り値と、高速道路での走行時にレーン逸脱システムの誤動作を引き起こす可能性のある読み取り値を区別することはできない。

その微妙な理解は、何千台もの車両をキャリブレーションし、あらゆる測定の実世界への影響を理解しているASE認定技術者などの専門家の頭の中にある。

汎用AIは専門分野では不十分

確かに、膨大なデータセットで訓練された汎用AIはメーカーの文書処理に優れている。PDFを解析し、仕様を抽出し、人間よりも速く情報を提示する。

しかし、致命的な障害を防ぐ重要な微妙な違いを根本的に区別することはできない。成功したキャリブレーションと危険なキャリブレーションの違いは、多くの場合、文脈的知識にかかっている。

コンテキストの欠如は間違ったキャリブレーションを意味する。間違ったキャリブレーションは道路上の安全でない車両を意味する。

これを文脈が命を救う他の分野(医療、建設など)に拡大すると、「一見正しく見える」問題は文字通り生死に関わるものになる。

私たちが実際に解決した方法

開発を始めたとき、典型的なAIのプレイブックは魅力的に見えた:機械学習モデルに大量のデータを与え、パターンを見つけさせる。

しかし、私たちは根本的に異なるアプローチを取った。

フェーズ1:スケールしないことを行う

私はASEレベル5認定技術者と数ヶ月間行動を共にした。彼らの作業を観察するだけでなく、特定の決定をした理由について専門家と広範に話し合った。

技術者が2019年アウディTTSのキャリブレーション手順を調整したとき、私はあらゆる調整の背後にある理由、彼らが考慮した環境要因、そして間違えた場合の潜在的な結果を文書化した。

私たちは専門家の頭脳から解釈知識を手動で抽出し、アルゴリズムだけでは生成できない組織的知恵の基盤を作り上げた。

フェーズ2:クラウドソースされた知性によるスケール

その基盤ができると、私たちはプラットフォームを使用するすべての技術者とのフィードバックループを作成した。実世界のキャリブレーション結果が継続的に私たちのAIモデルを洗練させた。

これは従来の意味での機械学習だけではなかった。

私たちは業界全体の集合的な組織知識を捉え、それを誰もがアクセスできるようにするシステムを構築した。

フェーズ3:ユーザーがいる場所で対応する

最後のピースは統合だった。整備工場に彼らのワークフローを変更させることは単に起こり得なかった。代わりに、私たちはCCCやMitchellなどの普及している既存の見積もりソフトウェアに直接統合した。

技術者は、作業方法を変えることなく、特定の修理シナリオに基づいたコンテキストを意識した推奨事項を得ることができる。

AIは見えなくなり、専門知識が貴重になる。

私たちの業界をリードするキャリブレーション精度は、AI代替ではなく、人間とAIのコラボレーションから生まれている。技術者は推奨事項の背後にある論理を理解しているため、それを信頼している。

これが自動車修理を超えて重要である理由

企業レベルのAIは、専門知識を置き換えようとするときではなく、それを尊重するときに成功する。

持続的なAIソリューションを構築している企業は、最も洗練されたアルゴリズムを持つ企業ではない。それらは情報と洞察の違いを理解している企業だ。

医療では、最も効果的なAIシステムは医師の代わりではなく、医師と一緒に機能する。金融では、実際に価値を加えるプラットフォームは、人間の判断を上書きするのではなく、それを増幅させる。

プラットフォームが、サービスを提供する領域を深く理解している人々によって構築されるとき、それが機能する。開発者が現場で時間を過ごし、実務家から学び、実世界の専門知識の複雑さを尊重するとき、それが機能する。

これにより専門家はより効果的になり、不要にはならない。しかし同時に、新世代のユーザーは、何十年もの経験を持つ人と同じくらい安全な車を提供できるようになる。

安全システムのキャリブレーションであれ医療診断であれ、思慮深いテクノロジーによって強化された人間の専門知識に代わるものはない。

それは単に良いビジネスというだけでなく、未来を構築する責任ある方法なのだ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事