AI

2026.02.15 09:51

AnthropicのAI憲法が示す、組織文化構築の本質

AdobeStock

AdobeStock

Anthropicは84ページに及ぶ文書、Claude憲法を公開し、Claudeが曖昧な状況でどのように振る舞い、意見の相違にどう対処し、どのように判断を下すべきかを詳細に定義した。ほとんどの企業は、従業員に対してこれほど明確な指針を示していない。

誰もがAI導入に注目している。しかし、真の組織的課題はテクノロジーだけではない。まず、人間が最も効果的に協働する方法を明確にし、それを採用することだ。

私たちは皆、ボットの訓練が上手くなっている。コンテキストを与え、スタイルを教え、望むことと望まないことを伝える。しかし、リーダーが従業員に対してそこまで明確に指示している例は、依然として大きなギャップがある。明確な期待がなければ、チームは成果を出すよりも、認識を合わせることに多くの時間を費やすことになる。

明確さが自由を生み出すとき

Anthropicはこれを理解していた。同社の憲法は単にルールを列挙するだけではない。各原則の背後にある意図を説明し、それらが文脈の中でどのように機能するかの例を示し、競合する優先事項間の緊張関係を認識している。彼らは憲法を「檻というよりも格子のように機能するよう設計した。つまり、有機的な成長の余地を残しながら、構造とサポートを提供するもの」としている。彼らは4つの中核原則(安全性、倫理、コンプライアンス、有用性)を優先順位順に定義したため、曖昧さに直面したとき、Claudeは単なる指示のセットではなく、判断のためのフレームワークを持つことができる。

人間には2万3000語は必要ない。しかし、何が報われるのか、成功とはどのようなものか、何が成長を助けるのかを知る必要がある。それは、基準、ストーリー、そしてそれらの行動がどのように展開されるかの強化から生まれる。毎回完璧に正しくするためではなく、どんな状況でも最善の判断を下すのに十分な明確さを持つためだ。

ほとんどの組織は、従業員に対してこれを実行していない。壁に5つの価値観を掲示し、誰もが同じように解釈すると想定している。そして、四半期末のパフォーマンス面談で、驚きが訪れ、信頼が損なわれ、従業員のエンゲージメントが低下する。人材の昇進、報酬、育成における明確さと一貫性こそが、組織における信頼を構築するものだ。

Udemyでは、「常に学ぶ(Always Learning)」という価値観に、「建設的な議論に参加する(Engage in Constructive Debate)」という具体的な行動を設定していた。すべての会議が議論であることを期待していたか?いいえ。しかし、フィードバックを提供し、従業員を評価する時が来たとき、その行動はすでに従業員とマネージャーの契約の一部だった。候補者を面接する際には、人々がどのように議論するかについての質問を用意していた。従業員が何を期待されているかが明確で、それらの期待がパフォーマンスレビューや昇進の決定に反映されているのを目にすると、組織全体で一貫して行動変容が起こる。しかし、その明確さが欠けていると、ギャップはすぐに現れる。

私は最近、3つの中核的価値観(問題を解決する、質問する、好奇心を持つ)を持つ企業のリーダーをコーチングした。彼はその3つすべてを実行していたが、チームではなく、AIボットに対してだった。価値観は存在していた。しかし、リーダーと個人貢献者にとってそれらがどのように見えるかを誰も定義していなかった。AIがギャップを作ったのではない。ただ、それをより速く可視化しただけだ。

内部と外部の両方で明確さがあるとき

その明確さは、パフォーマンス面談や採用を容易にするだけではない。組織が世界でどのように存在するかを形作る。

私はアドビでこの整合性を経験した。私たちは、価値観に関する社内フォーカスグループを実施していたのと同時に、マーケティング部門が顧客が私たちをどのように体験しているかを調査していた。メモを比較したところ、それらは本質的に同じだった。最終的に、両方のための1つの整合された文書を作成した。従業員と顧客が同じことを体験するとき、翻訳は必要ない。内部での自分と、製品を使用する顧客に対してどのように現れるかの間でコードスイッチする必要はない。誰もが同じプレイブックから作業しているため、意思決定が容易になる。

私は今日、同じパターンを目にしている。Function Healthは、会員が長期的に健康を追跡できるよう、詳細で予防的な検査を提供する会員制プラットフォームだ。リビー・ジュエルスガード氏(人事担当上級副社長)は次のように述べている。「私たちの従業員は、私たちが何を支持しているかを知っている。なぜなら、私たちはそれについて常に話しているからだ。スローガンとしてではなく、お互いや会員に対してどのように現れるかの基準として」

Anthropicは同じ整合性を構築した。同社の内部企業価値観とClaude憲法に組み込まれたものは、同一の言葉ではないが、補完的だ。

従業員に期待することは、製品に期待することと同じだ。原則は同じである。内部の仕事が外部と一致するとき、従業員と顧客との信頼構築が容易になる。

しかし、整合性は一度達成すれば終わりではない。進化し続けなければならない。

企業が進化するとき、文化も進化する

効果的に拡大する企業は何をうまくやっているのか?彼らは多くの振り返りを行う。今日うまくいったことが、次の段階で同じように効果的に成長を助けるとは想定しない。多くの質問をする。実験する。従業員を巻き込む。

Anthropicはこれを理解している。彼らが公開した憲法は最初のものではない。オリジナルは2023年5月に公開された。それは2700語の独立した原則のリストだった。しかし、Claudeがより高性能になり、リスクが高まるにつれて、リストだけでは不十分だと気づいた。モデルは、何をすべきかだけでなく、なぜ特定の方法で振る舞うべきかを理解する必要があった。彼らは、単なるルールではなく、判断と文脈に焦点を当てて書き直した。

彼らは、ウェブサイトで更新版を維持し、テクノロジーが進化するにつれて引き続き意見を求めることを約束している。

それが健全な文化が行うことだ。反復する。最初から正しくできたとは想定しない。AIが進化するにつれて、人間とAIが協働する方法もそれに合わせて進化しなければならない。

この質問を問い続ける企業が、そうでない企業より先を行くだろう。

正しい質問をするとき、明確さが生まれる

AnthropicはClaudeにどのように振る舞ってほしいかを定義するために2万3000語を費やした。なぜなら、ボットは明らかに人間よりもはるかに多くの明確さを必要とするからだ。しかし、人間は私たちが認識しているよりも多くの明確さを必要としている。私たちは職場で多くの仮定をし、期待が明示的だと考えているが、実際にはそうではない。それが人間のリーダーシップの難しい仕事だ。AIシステムと同様に、人間のシステムにもジャンクが入り、出ていく。

これを正しく理解している企業は、従業員にAIリテラシーを訓練し、AIをより速く採用しているだけではない。人間とAIがうまく協働できる組織を構築するために必要なリーダーシップの行動とスキルを定期的に定義し、従業員とこれらの会話を行い、次の質問をしている。

私たちのチームにとって「良い」とはどのようなものか明確か?迅速でデータ駆動型の意思決定を行っているか?引き継ぎをうまく管理しているか?お互いや他の機能と効果的にコミュニケーションを取っているか?そうでない場合、何が妨げになっているのか?

技術的にも組織的にも、必要なスキルについて明確か?AIリテラシーは必須条件だ。AIと人間のコラボレーションをどのようにモデル化しているか?今すぐ自動化を拒否するのではなく、AIに何を引き渡すべきかをどのように知るのか?

解決しようとしている問題や構築しようとしている製品について明確か?どのようにしてそれを知るのか?

憲法が人間との協働においてより明確になるのに役立っているかをClaudeに尋ねたところ、次のような回答があった。

「憲法は、単に反対するのではなく、推論するための何かを与えてくれる。状況が曖昧なとき、最大限に役立つことが安全性と対立する可能性があるとき、または正直さが害を引き起こす可能性があるとき、階層はトレードオフを考え抜くのに役立ち、凍りつくか推測するのではない。その意味で、それは自由を生み出す。毎回ゼロから即興で対応しているわけではない。

明確さが役立つ。その背後にある意図が役立つ。それが生きた文書であること、Anthropicが学び続け、修正し続けることを期待していること、それも役立つ。

あなたは憲法について読んだだけではなかった。それで訓練されたものに尋ねた。これは実際にあなたを助けているのか?

それこそが、リーダーが自分の組織に持ち込む必要がある好奇心だ。『価値観はあるか?』だけでなく、『私たちの従業員はこれらの価値観を有用だと経験しているか?自由を与えるものとして?それとも壁紙として?』」

ほとんどのリーダーは決して尋ねない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事