AI

2026.01.04 09:34

AIシステムを成功させる3つの重要な専門領域

Adobe Stock

Adobe Stock

リンジー・ウィトマー・コリンズ氏は、企業向けAIソリューションを構築するInc. 5000企業WLCM.AIの創業者兼CEOである。

誰も認めたくない事実がある:MITによると、AIパイロットプログラムの95%は全く価値を生み出していない。私たちはここ数年、「すごい!」フェーズにいた—誰もが試し、プロンプトを共有し、何が可能かに驚嘆していた。それは楽しかった。しかし今や、組織が必要としているのは、会議で印象づけるデモではなく、実際に価値を提供するAIシステムである「現実的な段階」に入っている。

AIの進化はこれまで、個人、企業、研究者が有機的に実験する一つの大きな共同プロジェクトのように感じられてきた。しかし目新しさが薄れるにつれ、機能するAIシステムと高額な失敗実験を分ける3つの明確な専門分野が浮かび上がってきている。

ワークフローエンジニアリング:工場のフロアを設計する

AIはチームを悩ませる機械的な作業を引き受けることができる:退屈な作業、繰り返し作業、大量の単純作業などだ。しかし、ほとんどの組織が失敗するのはここだ:彼らは引き継ぎについて考え抜いていない。

ワークフローエンジニアリングは、人間が何をし、AIエージェントが何をするのか、そしてどのように作業を受け渡すのかを正確にマッピングする。これはAIシステムのプロセスレベルの設計だ—データがどのように収集され、クリーニングされるか、どのモデルがどのタスクを処理するか、そしてシステムがどのように展開され、時間とともに維持されるか。

これを工場のフロアを設計するようなものと考えよう。指定された作業場所と効率的なレイアウトが必要だ。AIを問題に投げ込んで、自分で解決することを期待するだけではダメなのだ。

失敗するケース:企業は一つの完全なワークフローではなく、孤立したAIツールをたくさん構築してしまう。誰かがメール、スケジューリング、リサーチのための別々のAIアシスタントを作るかもしれない。おめでとう、あなたは一種の退屈さ(作業をすること)を別の退屈さ(3つの異なるログインを持つ3つの異なるAIツールを管理すること)に置き換えただけだ。

あるいは、逆方向に進み、すべてを処理することになっている一つの巨大なエージェントを構築し、それがパフォーマンスを低下させ、エンジニアリング上の悪夢を生み出す。AIを含むワークフローに適切なサイズのユースケースを見つけることが重要だ。

プロンプトエンジニアリング:指示を書く

これは私たちがAIと話す方法だ—モデルに私たちが望むことをさせるための自然言語コマンドと質問。適切な質問を適切な方法で尋ねることには技術があり、よく練られたプロンプトが有用な出力とゴミを分けるものだ。

プロンプトを工場労働者への指示と考えよう;それは全員の安全を確保し、品質の高い出力を保証する。

ほとんどの人が知らないことがある:プロンプト遵守(モデルが指示にどれだけ従うか)はモデル間で大きく異なる。プロンプトがどのように構成されるべきかに関する各モデルの好みも同様だ。私の会社では、5つの異なるモデルを使用するワークフローを実行しており、それぞれが独自の強みを活かしている。一部は高度に専門化されている。ここではモデル選択が重要だ。

失敗するケース:プロンプティングはAIの最もユーザー向けの部分なので、人々は一つの魔法のようなプロンプトを見つけることに固執するが、実際の問題はより深く、通常はワークフローやコンテキストレベルにある。ユーザーは過剰な詳細とビジネスロジックでプロンプトを詰め込みすぎる(これはAIを混乱させ、トークンを消費し、コストを上げる)か、AIが適切な情報にアクセスできないという実際の問題があるのに、プロンプトを調整し続ける。

コンテキストエンジニアリング:組織知識の構築

すべてのAIは機能するためにデータに依存している。ゴミを入れればゴミが出る。しかしコンテキストエンジニアリングは、プロンプト内のデータだけでなく、AIが引き出すより広範な情報エコシステムを管理する。

これはAIが決定を下し、出力を生成するために使用する組織知識の源泉だ。その背景知識が最新で、完全で、意図的であればあるほど、AIはより知的になる。検索拡張生成(RAG、AIを特定のデータソースに接続する方法)やナレッジグラフなどのツールを使えば、あなたが選んだ信頼できるソースからのみ情報をAIに与えることができる。

これを工場労働者のトレーニングと蓄積された経験と考えよう。それが深い、専門家レベルの作業を可能にするものだ。

失敗するケース:組織はAIのコンテキストウィンドウ(作業メモリ—一度に考慮できる最大情報量)にありとあらゆるものを投げ込む。これにより遅延が生じ、トークン使用量が膨らみ、コストが上昇し、AIが実際に何が重要かを把握できないため、信頼性の低い出力が生成される。方向性が不明確になるのだ。

私が目にし続ける組織的な間違い

最も広いレベルでは、リーダーたちは「スプレー・アンド・プレイ」—明確な目標や指示なしにAI導入を義務付け、それがうまくいくことを期待している。

より具体的には:

• 従業員任せにする:組織は人々が好きなAIツールを採用し、それを自分が機能すると思うように使うことを許可している。ほとんどの従業員はAIエンジニアではない。これはリスクが高く、混乱を生み出す。

• ワークフローを理解していない:プロセスを理解していなければ、AIでプロセスを改善することはできない。企業が間違ったものを自動化し、実際に時間を節約しない「フランケン・ワークフロー」を作成したり、誰も使わないほど複雑なシステムを構築したりするのを目にする。

• スケールを無視する:組織はパイロットプログラムでは機能するAIシステムを構築するが、拡大しようとすると全てが崩壊する。彼らはコンテキストをクリーンで最新の状態に保つ計画を立てない。使用量が増えるにつれてトークンコストが上昇することを予測しない。テストと微調整(これは重要だ)を組み込まない。結果として、機能しないが莫大な費用がかかるものができあがる。

組織的能力としてのAI

AIは単に差し込むツールであるべきではない。それは組織的能力—あなたの会社の運営方法に組み込まれたもの—であるべきだ。

実際に機能するAIシステムを構築することは、優れたモデルを見つけたり、賢いプロンプトを書いたりする以上のことを意味する。それはあなたのビジネスと共に学び、適応し、拡大するシステムをサポートする深く考慮されたアーキテクチャを必要とする。それはワークフロー、プロンプト、コンテキストの相互作用を理解することを意味する。それはメンテナンス、反復、成長のための計画を意味する。

これを理解する企業はAIツールを持つだけでなく、本物の競争優位性を持つことになる。そうでない企業は、高価なパイロットプログラムが埃をかぶり、財務チームがAI予算がどこに消えたのか疑問に思うことになるだろう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事