経営・戦略

2025.11.30 18:02

AIによる認知的共感の架け橋:企業が取り入れるべき新たな視点

Shutterstock.com

Shutterstock.com

数十年前、組織は明確な原則に基づいて設立されたかもしれないが、今日では内部分裂と外部からの圧力によって状況が硬直化している。継続的な経営努力にもかかわらず、複雑な内部の膠着状態は続いている。立場は硬化し、物語は根強く残っている。しかし、この惰性の中で、新たな可能性が生まれつつある。

人工知能は長い間技術的なツールであったが、2022年のChatGPTの台頭以来、文化的現象となった。今やAIは極めて人間的な何かに再利用される可能性がある。それは認知的共感のキュレーターとして、従来の経営だけでは解決できなかった分断を解読し、橋渡しする能力を持つものだ。ただしそれは、人と地球のために最善を引き出すよう調整され、訓練され、テストされ、標的化されたAIシステム、つまり向社会的AIの形で追求される場合に限る。

言語的翻訳の限界

私たちはAIが言語間の単語を、ますます洗練された形で翻訳する能力に慣れてきた。しかし組織の対立は、単なる言語的翻訳の不十分さを明らかにしている。財務担当役員が「コスト合理化」や「株主価値」について語り、R&D担当者が「科学的誠実性」や「長期的イノベーション」で応じるとき、彼らの言葉は異なるが、より深い断絶は別のところにある。それは意味の枠組み、組織的議題、専門的アイデンティティにおける正反対の立場にある。

典型的な企業の紛争は言語についてではなく、サイロ化された業務の長年にわたって硬直化した相容れない感情的な物語についてである。一方は合併を市場領域とシナジーの平和的な回復と見なし、他方は同じ出来事を反労働者闘争のレンズを通して見て、買収側を雇用を排除する占領者と見なすかもしれない。双方が洗練された議論、データに基づく証拠、そして正当な不満を持っている。双方が相手の立場によって実存的に脅かされていると感じている。これらの視点の衝突は、AIの主流化が人間の専門知識の冗長性をめぐる熱い議論を引き起こす文脈で急性化している。皮肉なことに、この文脈はまた、マインドセット翻訳者としてのAIの可能性が興味深い機会を明らかにする場でもある。

AIの視点の可能性

合併紛争の勝者を宣言するのではなく、対立する視点の内部論理を忠実に再構築するように設計されたAIシステムを想像してみよう。そのようなシステムは、経営陣が労働組合側の言うことだけでなく、彼らの立場が集団的経験の中でなぜ道徳的に不可欠だと感じるのかを理解するのに役立つだろう。それは運営チームが、戦略的決定が単なる利益の野心からではなく、何世紀にもわたって記録されてきたガバナンスパターンからどのように生まれるかを把握するのに役立つだろう。

このプロセスは認知的共感を生み出すことについてである—完全に同意しない場合でも、他者の世界観がどのように機能するかを理解し、彼らのニーズに対応する解決策を見つけることを強く感じる能力である。向社会的AIによって支えられる認知的共感のキュレーター翻訳者は、交渉者が言葉の地雷を引き起こさない方法で自分の立場を明確に表現するのに役立つ可能性がある。さらに興味深いことに、それは交渉者が相手の立場を、その相手が実際に正確だと認識するような方法で提示するよう指導することができる。これが真の理解の究極のリトマス試験である。

ねじれた双子:分極化増幅器としてのAI

AIは悲劇的な二面性を持つツールである。すでに視点を超えた理解を促進する可能性のある同じ資産が、逆のことをするために武器化されている。フィルターバブルと組織的エコーチェンバーに関する研究は、アルゴリズムによる推奨システムが情報の摂取をいかに体系的に枯渇させるかを明らかにしている。推奨エンジンがあなたの興味をより正確に予測するほど、それはあなたをより速く閉じ込め、退行的なフィードバックループを作り出す。

ビジネスの文脈では、これは買収された従業員が以前の組織の戦略的独立性を肯定するコンテンツを無限に受け取り、一方で買収側の従業員は深い統合の必要性を検証する資料だけを見るという形で現れる。AIを活用したコンテンツキュレーションは既存の分断を反映するだけでなく、さらに悪いことに、それらを積極的に強化する。これらのバブルは立場の硬直化に寄与し、交渉可能な意見の相違が相容れない専門的アイデンティティに変わり、妥協が裏切りのように感じられる。(悲しいことに、同じダイナミクスが一般的な政治的風景でも大規模に展開され、右と左、保守派とリベラル派は自分たちのバブル内でコミュニケーションを取り、自分の知的生息地の快適ゾーンを超えて進む意図をほとんど持たない)。

そしてそれは悪化している。本物の声を模倣することがますます洗練されているAI生成コンテンツは、今やどんな立場でも強化する一見信頼できる無制限の量の視聴覚資料を生成することができる。ハイブリッド環境では、見ることはもはや信じることを意味しない

A-フレーム:理解をキュレートするための4つの原則

組織内でAIを壁の強化ではなく、橋渡しに向けてどのように曲げるのか?A-フレームは、ハイブリッド知能を育むための4つの連続的なコミットメントに基づく実践的なロードマップを提供する:

認識(Awareness):あなたの情報エコーチェンバーを認識する。最初のステップは、私たち一人ひとりがアルゴリズムによってキュレートされた現実の中で生きていることを認識することである。

実践的応用:あなたの認知的快適ゾーンに挑戦する内部ソースを意図的に探す。目標は改宗ではなく、相手側が実際に何を信じ、なぜそう信じるのかを理解するリテラシーである。

理解(Appreciation):分断を超えた正当な懸念を認識する。理解は同意を意味するわけではない。それは対立する立場が悪意や無能からではなく、正当な懸念から生じることを認めることを意味する。

実践的応用相手の立場を批判する前に、彼らの議論を最も強力で説得力のある形で明確に表現する練習をする。

受容(Acceptance):悪魔化せずに還元不可能な違いを受け入れる。いくつかの違いはより良いコミュニケーションを通じて解決できない。受容とはその緊張感と共に生きることを意味する。

実践的応用:「誰が正しいか?」から「何が実行可能か?」へとシフトする。AIシステムは複数のシナリオを同時にモデル化し、両側の譲れない利益が共存する可能性のある重複ゾーンを強調することができる。

説明責任(Accountability):情報エコシステムに対する責任を取る。すべてのデジタル相互作用は、組織の情報環境を形作るアルゴリズムをトレーニングする。

実践的応用プラットフォームにエンゲージメント指標だけでなく、分極化指標についても説明責任を持たせる。個人は認識論的謙虚さを実践しなければならない。

ハイブリッドな未来のための認知的共感の育成

AIが私たちを専門的な部族的確信に閉じ込めるか、あるいは私たちが反対する人々の中に共有された人間性を垣間見るのを助けることができる時代において、二重リテラシーが最も重要になる。ハイブリッド知能の未来(自然知能と人工知能の相補性から生じる)において個人としても組織としても繁栄するためには、一方では人間リテラシー(思考や感情の方法を含む、自己と社会の全体的理解)と、アルゴリズムリテラシー(私たちの認識や他者の認識に対するAIの影響の率直な理解)が必要である。

今後、私たちは人工知能を、すでに信じていることを確認するためにデザインするのか、それともより深い理解に向けて私たちに挑戦するためにデザインするのか?向社会的AI—人と地球のために最善を引き出すよう調整され、訓練され、テストされ、標的化されたAIシステムを選ぶことは選択である。私たちはそれを選ぶ勇気を持つだろうか?

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事