アライアンス・マンチェスター・ビジネススクールの人的資源管理・雇用関係・法律講師であるイムラン・サキブ博士と、Strategize Labsの共同創業者兼最高技術責任者(CTO)であるアワイス・アサール氏による寄稿
過去1年間で、人工知能(AI)はビジネスとその業務に、さらには戦略的な取締役会レベルにおいても、ますます組み込まれるようになった。2025年には、職場のエージェントAIに推定50億ポンドが投資されており、ビジネスリーダーが戦略的思考にこの技術を使用するかどうかではなく、どのように使用するかが問題であることは明らかだ[i]。
適切に使用すれば、AIは取締役会における意思決定プロセスを強化する可能性を秘めている。しかし現時点では、人々がこれらの技術を既存の前提を補強するためだけに使用しているというリスクがある。
ほとんどの大規模言語モデル(LLM)は、デフォルトで同意的になるように設定されており、あなたが指示した特定のタスクを実行するのを支援する。しかし歴史的に、戦略立案は、高度な経験を持つ個人のグループ間での活発な議論、知的誠実さ、事実調査によって発展してきた。
では、大規模言語モデルに同じことをさせるように設定したらどうだろうか。複数のAIモデルを組み合わせることで、戦略目標を最もよく達成する方法について議論し、論争するように構成できる。人間に期待するのと同じように、しかし技術的な「ハイブマインド」として。
同僚のハムザ・ムダシール氏とメガナ・プラカシュ氏とともに、我々はこれらの「ハイブマインド」構成が企業戦略にどのような価値を付加できるかをテストした。人間とAIが、企業が直面する典型的な問題をどのように分析し、どのような推奨事項を作成するかを対比するために、2つのケーススタディを作成した。
これらのパターンが堅牢であるかどうかをテストするために、同じ「ハイブマインド」構成を30回以上実行し、議論が推奨事項に収束する方法において一貫した行動を確認した。
企業戦略の強化
「ハイブマインド」を通じて実行した最初のケースは、資金繰りに圧力を受け、より広いヨーロッパ市場への拡大を検討しているスコットランドの醸造所に関するものだった。
Google Gemini、Claude、OpenAI、Grokの各LLMを含む我々のAIパネルは、10分未満で議論セッションを完了した。対照的に、それぞれの分野で5年以上の経験を持つMBA卒業生で構成された人間のパネルは、招集に2週間を要し、その後、想定された醸造所への推奨事項について45分間議論した。
これらの技術の効率性の利点はすでに十分に文書化されている。重要な発見は、各パネルが到達した決定と推奨事項がどのように比較されたかだった。
「ハイブマインド」は、人間のパネルが提示した洞察の大部分をうまくシミュレートすることができ、人々が実生活で行う貢献を反映する能力を実証した。しかし、さらに印象的だったのは、AIパネルがより斬新な解決策を提供できた一方で、人々よりも著しく少ない集団思考を示したという事実だった。
これから明らかになったのは、AIツールがビジネスリーダーが以前よりも多くの道を探求するのを助けることができ、企業戦略についてより情報に基づいた決定を下すことができるということだった。
人間の洞察を置き換えるものではない
だからといって、人々の実世界の経験を脇に置いたり置き換えたりすべきだということではない。技術のみに依存することには落とし穴があるからだ。
これは、我々の2番目のケーススタディで最もよく例証された。それは、英国、中東、南アジアの文化的レンズを通じて分析しなければならなかった金融サービス会社での人事紛争だった。
このケースで、文化的洞察が「ハイブマインド」にとって顕著な盲点であることが明らかになった。現在のグローバルなデジタル格差は、LLMの大部分が依然として西洋世界で開発されており、したがって西洋の文化的文脈で訓練されていることを意味する。
たとえば、このケースの人間のパネルは、パキスタンにおけるより権威主義的な管理スタイルの口語的な用語として「セス文化」を強調することができた。これは「ハイブマインド」が拾い上げることができなかったものだ。
時間の経過とともに、デジタル格差を狭め、LLMがこれらの問題を克服するために利用できる非西洋文化のための成長する一次データベースが必要になるだろう。しかし、これはこれらの技術を使用することに伴うリスクを浮き彫りにしている。
他にもある。幻覚、高レイテンシ、エスカレートするコストなどだが、これらは管理できる。企業は、あらゆる主張に対して引用を要求するようにモデルをプログラムしたり、最初はより安全な環境でこれらのシステムをテストしたりできる。そして最終的には、あらゆるシナリオにおいて、人々を最終的な意思決定者として維持する必要がある。人間のガードレールは、AIリスクを軽減する最も効果的な方法の1つであり続ける。
どこから始めるか
AI技術の潜在能力を認識することは一つのことだが、実際にそれらを企業戦略に実装するための実際的なステップを踏むことは、まったく別の課題である。
企業にとって重要なのは、小さく始めることだ。構造化されたエンゲージメントにこれらの「ハイブマインド」を使用し、既存のプロセスと並行して実行することは、成長するための良い基盤となり得る。四半期ごとの取締役会を例に取ろう。企業は通常のアプローチを実行しながら、同時にAIモデルのコレクションを通じてそれをシミュレートし、その反応をテストできる。
それらの洞察は、実世界の経験から得られたものと比較して、関連性を確保し、潜在的な落とし穴を強調し、「ハイブマインド」がこれらの議論に真の価値を付加できる場所を特定できる。
今後数年間で、戦略的優位性は単にAIを使用することによって得られるのではなく、アイデアを議論し挑戦するためにLLMのポートフォリオを活用する企業によって獲得されるだろう。それは人々の意思決定能力を置き換えるためではなく、さまざまな議論とアプローチをすべて検討したことを確認することによってそれを強化するためにそこにあるだろう。
AIの時代はすでにここにある。真の勝者は、それを適切に使用できる人々だろう。
[i] https://www.prosus.com/news-insights/2025/new-prosus-report-explores-the-rise-of-ai-agents-in-the-workplace



