経営・戦略

2026.04.26 03:28

AIは「単一の従業員」ではない──経営者が採用すべき「ファミリーモデル」とは

Krot_Studio - stock.adobe.com

Krot_Studio - stock.adobe.com

Muhamad Aly Rifai(MD, DFAPA)、精神医学の寄付講座チェア、Blue Mountain Psychiatryの主席医師兼CEO。

advertisement

いま、多くの経営幹部はAIファミリーの中に「お気に入りの子ども」がいるように見える。

ある経営者は戦略立案や文書作成にChatGPTを愛用している。別の経営者はライティングや分析にClaudeが欠かせないと言う。3人目はワークフローが企業の技術スタックに近いという理由でGeminiを頼りにしている。4人目はPerplexityをリサーチデスクのように扱っている。最近では、ライブのシグナルやリアルタイム検索のためにGrokを組み込む人もいる。市場の動きは速かった。AIの家系図はもはや苗木ではない。強い個性を持ち、強みが競合し、リスク特性も大きく異なる、にぎやかな大家族になった。

しかし、この成長が新たな経営課題を生んでいる。多くのリーダーがいまだにAIを、1つの職務記述書を持つ「1人の社員」であるかのように語っているのだ。その発想は時代遅れである。

advertisement

私はAI技術の初期テスターであり、早期の導入者でもある。また、医療における初期のAIアプリケーションにフィードバックもしてきた。この経験から、AIはいまや「認知的な働き手」のポートフォリオになっていることが分かった。汎用的なものもあれば、特化型もある。洗練されたものもあれば、速いものもある。統合が得意なものもあれば、根拠に基づく検索が得意なものもある。企業システムの内部で動くのが得意なものもある。それらを互換的に扱って展開すれば、ノイズと誤った自信、そして高くつく失敗を生む。

経営層が陥りがちな誤り

精神科医として、別の問題も見えている。経営チームはツールを見誤るだけではない。自分たち自身を見誤ることもある。

投影する。 多くのリーダーは、流暢な回答を1つ聞いただけで、そのシステムは賢いのだと決めつける。口調を能力と取り違える。そして「声」の印象から、モデルに性格特性を割り当てる。これは思慮深く感じる、あれは安全そうに感じる、これは創造的に感じる、といった具合だ。しかしそれはガバナンスではない。投影である。

分裂させる。 ときに経営陣は単一のプラットフォームを理想化し、他を退ける。あるチームはChatGPT一択の組織になる。別のチームはClaudeを教義にしてしまう。また別のチームは、会社がすでにGoogleの中で動いているのだからGeminiがすべてのワークフローを主導すべきだと主張する。それは戦略ではない。部族的行動である。健全なリーダーシップは強みを統合する。弱いリーダーシップはツールの周りにイデオロギーを築く。

権威を移譲する。 AIは落ち着いた洗練された声で語るため、チームによっては、その出力をあたかもその場にいる熟練の担当者から出たもののように扱い始めるかもしれない。結果として、機械は自ら稼いでいない地位を借りてしまう。医療、法務、金融、上場企業の経営では、それは危険な一手である。出力が流暢であればあるほど、人間のレビュー担当者はより強い規律を持ち込まなければならない。

認知を早々に外注する。 AIは摩擦を減らすべきだ。AIは判断を置き換えるべきではない。リーダーが、一次案の思考、統合、反証をあまりに早く外部化すると、自分たちの戦略筋が弱くなる。チームは速くなるが、企業価値を守る問いを発する習慣を失ってしまう。つまり「これは真実か」「これは関連性があるか」「行動に移すのに十分安全か」といった問いだ。

だからこそ経営層には、勝者総取りモデルではなく、ファミリーモデルが必要なのである。

AIのファミリーモデルを採用する

「ファミリーモデル」とは、目の前のタスクに最も適したAIツールを配置することを意味する。

例えば、あるモデルは家族の中でもジェネラリストのような存在で、アイデア創出、統合、ドラフト作成、部門横断の思考を助けるかもしれない。別のモデルは、口調、構成、長いコンテキスト、慎重な推論が重要なワークフローの分析を支えるかもしれない。3つ目は、マルチモーダルな作業や組織データへのアクセスが重要な環境における企業統合役として機能する可能性がある。さらに別のものは、エビデンス収集と根拠に基づく検索ワークフローを支援する、リサーチアソシエイトとして使えるだろう。

こうした役割はすべて、今後も変化し続ける。経営層は「どのAIが最良か」を問うのをやめなければならない。代わりに「このタスクに対して、このリスク許容度の下で、このレベルの人間の監督を前提に、どのAIが最適か」を問うべきだ。

この転換は、経営層の責務そのものを変える。

1. タスクに最適なAIを適切に対応づける

取締役会向けメモのドラフトは、契約書のレビューとは同じではない。契約書のレビューは、市場調査の統合とも同じではない。市場調査の統合は、ライブデータの検索とも同じではない。タスクごとにエラーコストが異なる。タスクごとに異なるツール選択がふさわしい。

2. リスクに応じてAI利用を階層化する

低リスクの仕事にはスピードがふさわしい。高い利害がかかる仕事には摩擦がふさわしい。出力が法的リスク、患者安全、財務報告、対外コミュニケーション、規制のある意思決定に触れるなら、システムにははるかに厳格なレビューループを課すべきだ。すべてのAI利用に一律の方針を当てはめるのは避けたい。

3. 失敗モードのための社内言語を構築する

あなたのチームは、洗練された推測、弱い情報源の連鎖、古い回答、コンテキストの取り違え、推論の崩壊の違いを理解しているべきだ。AIの失敗を言葉にできなければ、AIの失敗を見つけることはできない。

4. AI出力に異議を唱える文化を育てる

正しいAI文化は、最速の答えを評価しない。最も妥当な判断を評価する。精神医学では、洞察は現実検討から始まる。ビジネスでも同じルールが当てはまる。AIを使いこなす最強のチームは、その場で最も声の大きい子どもに恋をしない。症例検討会を開く。出力を比較する。前提を問い直す。資本、評判、信頼を投じる前に、まず不一致を探す。

ここで、多くの経営チームはなお的を外していると私は考える。AIの導入とはツールを追加することだと思っているのだ。しかしそうではない。判断を再設計することなのである。次のフェーズで勝つのは、最も多くのライセンスを持つリーダーではない。最良の見極めを備えたリーダーだ。どのモデルを会議の場に入れるべきか、どれは場の外に置くべきか、どれは常に大人の監督が必要かを理解しているリーダーである。

それが、私が見るAIリーダーシップの未来である。いまやツールの家族が経営のテーブルにつく。あなたの仕事は、お気に入りの子どもを選ぶことではない。誰が話すべきか、誰がドラフトすべきか、誰が検索すべきか、そして誰が決して単独で最終判断を下してはならないのかを知ることだ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事