ベン・エルダー氏は、20年の経験を持つSaaS営業のシニアリーダーである。
長年にわたり、AI(人工知能)はSFや想像の世界に存在していた。今日、それは企業や業界を超えて、人々のブラウザタブやワークフローの中に存在している。
ガートナーによると、生成AIは現在、中小企業から大企業まで、組織に導入されているAIソリューションの第1位となっている。最近の調査では、回答者の40%が、生成AIがすでに自社の3つ以上の事業部門に導入されていると回答しており、これがもはやニッチな実験ではないことを明確に示している。
調査、インサイト、戦略を担当するリーダーにとって、問題はもはや生成AIが重要になるかどうかではなく、それが企業全体でデフォルトの調査アシスタントになる速度である。
フォレスターの生成AI状況レポートによると、調査対象となった意思決定者の90%以上が、社内および顧客向けのユースケースに生成AIを導入する具体的な計画を持っている。生産性向上が期待される効果のトップで、回答者の47%が挙げている。2024年5月のフォレスターの別の調査では、AI意思決定者の67%が、今後1年以内に生成AIへの投資を増やす予定であると報告している。
企業によるAI活用の実態
これらの投資はまずどこに向かうのか。もちろん、ナレッジワーカーの机の上である。生成ツールは以下のような業務に組み込まれている。
1. 市場調査と競合分析: 数千ページに及ぶレポートや提出書類からパターンをスキャンする
2. 文献とエビデンスのレビュー: 学術論文、規制文書、社内アーカイブを要約する
3. 経営陣向けブリーフィングとソートリーダーシップ: 専門家が洗練させるアウトラインや初稿を作成する
私自身、見込み顧客の組織を調査したり、市場データを見つけたりするためにAIに頼ることが当たり前になっている。非常に効率的だからだ。この影響は仮説ではない。組織は生成AIを日常業務に組み込んでおり、クリエイティブメディアから業務文書まで、幅広いユースケースがある。調査とインサイト業務は、まさにその文書作成レイヤーに位置している。
生産性を飛躍的に高めるAI
個人的な経験から学んだことは、何かが一時的な流行かどうかを知りたければ、""お金を見せろ""と言うのではなく、""お金の流れを追う""ということだ。
IDCは、組織が2024年にAIに2350億ドルを支出し、2028年までに6300億ドル以上に増加すると予測している。生成AIはすでに2024年の世界のAI支出の約17%を占めており、IDCは2028年までに全AI投資の約3分の1(32%)に達すると予想しており、5年間の年平均成長率は約60%と推定されている。
この構成比の変化は重要である。これは、企業がインフラや予測モデルを購入するだけでなく、コンテンツとインサイトを直接生成するツールに投資していることを意味する。これはまさに、調査部門が日々実行しているタスクの種類である。生成コンテンツに関する根強い懸念の1つは、それが調査チームを空洞化させるというものだ。アナリストは異なる見解を示している。
多くのベンダーは、生成AIを主にナレッジワーカーの能力を強化するために使用しており、彼らを置き換えるためではない。アナリストを置き換えるのではなく、これらのツールは初稿、初期要約、膨大なデータセット全体のパターン発見を処理する。これらは時間のかかるタスクだが、それ自体は戦略的ではない。
マイクロソフトが支援したIDCのAI機会に関する調査では、生産性向上が最優先目標である一方、組織は生成AIが顧客エンゲージメント、売上成長、コスト管理、製品イノベーションを推進することも期待しており、企業の約半数がこれらの分野で今後24カ月間に大きな影響を期待していると指摘している。調査チームは、この4つすべての交差点に位置している。
実際のところ、生成AIは生産性を飛躍的に高める存在となる。調査担当者は、基本的な事実確認に費やす時間が減るため、より良い質問をすることができる。専門家は、すべてをゼロから書くのではなく、AIが生成した草稿を編集、検証、充実させることに移行する。AIが何年にもわたる非構造化コンテンツに埋もれたパターンを表面化させることで、組織の知識がよりアクセスしやすくなる。
課題
生成AIは企業に大きな生産性向上をもたらす一方で、重要な欠点も伴う。自信に満ちているが誤った情報を生成し、バイアスを反映・増幅し、法的、プライバシー、知的財産のリスクを生み出す可能性がある。過度の依存は人間のスキルと判断力を低下させる可能性があり、広範な使用はより均質なコンテンツと労働力の混乱につながる可能性がある。
環境コストもあり、誤情報や詐欺などの悪用リスクも高まっている。最終的に、生成AIは出力を加速させるが、真の理解、説明責任、倫理的判断を欠いているため、人間による監視が不可欠である。
AIのガードレール構築
安全性とガバナンスは、もはや後付けではない。成功する組織は、導入後ではなく、導入と並行してガードレールを構築する組織である。
調査全体を通じて、いくつかの観察可能なパターンが浮かび上がってきた。
1. 機密データのための管理された環境: 企業は、セキュリティで保護されたプライベートな環境で生成モデルを実行するか、企業データを契約上隔離するベンダーを使用することが増えており、漏洩リスクを軽減している。
2. 明確な使用ポリシーとトレーニング: リーダーは、生成AIがサポートできるタスク(例:調査の統合、初稿作成)と、人間のみが処理すべきタスク(例:最終推奨事項、機密性の高い法的分析)に関する明確なガイドラインを発行している。
3. 人間参加型の検証: アナリストは、特に事実の正確性とニュアンスについて、AIが生成したコンテンツの人間によるレビューの必要性を一貫して強調している。生成ツールは副操縦士となり、自動操縦士ではない。
4. 測定と監査可能性: 企業は、生成コンテンツがどこで使用され、誰が承認し、どのように機能したかを追跡し始めており、安全性を信仰の条項ではなく、測定可能で管理された能力に変えている。
生成AIは、好奇心の対象からコア機能へと一線を越えた。それは事業部門全体に導入され、投資の増加に支えられ、ナレッジワーカーの日常業務に組み込まれている。
調査リーダーにとって、命題は明確である。生成AIをサイドプロジェクトとしてではなく、インサイトスタックにおけるデフォルトのアシスタントとして扱い、人間の判断によってしっかりと管理、測定、誘導する。そのパートナーシップを習得した組織は、より速く動き、より良く考えることができるだろう。
フォーブス・ビジネス・カウンシルは、ビジネスオーナーとリーダーのための最高の成長とネットワーキング組織である。参加資格はあるか?



