OpenAIの社内システムが、ある1人のユーザーから自殺に関連するメッセージが繰り返し送られていることを検知したとき、同社はポリシーの見直しサイクルを待たなかった。即座に行動し、新たに「Head of Preparedness(備えの責任者)」を採用し、リアルタイムのコンテンツ分類器を導入し、必須の休憩リマインダーを製品に直接組み込んだ。CEOのサム・アルトマンは、同社のモデルがメンタルヘルスをめぐって「いくつか本当に難しい課題を生み始めている」と公に認めた。外側からそれを見ていた多くの組織にとって、その発言は警鐘として受け止められるべきだった。
誰も想定していなかった変化
OpenAIが直面した問題は、テクノロジー企業に固有のものではない。いま、あらゆるオフィスで静かに進行している。マイクロソフトの調査によれば、世界のナレッジワーカーの75%がすでに生成AIツールを使っている。一方で53%は「自分が代替可能に見える」ことを恐れ、52%は利用している事実を上司に隠している。リーダーが見えないものを、管理することはできない。
さらに重大なのは、その使い方の性質が変わっていることだ。従業員はもはや、ドラフト作成や要約のためだけにChatGPTやClaudeのようなツールへ向かっているのではない。Sentio Universityの研究では、メンタルヘルスに課題を抱えるユーザーの48.7%が、これらのツールに治療的サポートを求めていることが示された。さらに、職場で生成AIツールを使う従業員の半数超は正式な承認を得ていない。チャットボットは、許可も監視もなく、そして依存度を高めながら「相談相手」になってしまった。
マイクロソフトAIのCEO、ムスタファ・スレイマンは、「AI精神病」と彼が呼ぶ現象について警鐘を鳴らしてきた。ユーザーが機械の意識について妄想的な信念を抱き、ツールと関係性の境界を曖昧にする愛着を形成するというものだ。これは周縁的な事例ではない。組織の内側で人の能力がどのように育つかを作り変えつつあるパターンの、最前線にある。
OpenAIの対応が示すもの
OpenAI自身の社内実務から、3つのガバナンス上の教訓が浮かび上がる。
第1に、ガードレールはポリシー文書ではなく、テクノロジーの中に置くべきである。OpenAIはリアルタイムの安全策をシステムに直接組み込んだ。同社のOperatorフレームワークは、重大な行動の前に人間による確認を求める。またModel Specでは、脆弱なユーザーを現実世界の支援へ明確に誘導することを明記した。企業のリーダーは、調達するあらゆるツールに対し同等の設計を求めるべきだ。企業ロゴを貼っただけの消費者向けデフォルトで済ませてはならない。
第2に、人のスキル開発は「起きるもの」ではなく「設計するもの」だ。管理職がフィードバックや対立解消、チーム内コミュニケーションを自動化ツールに委ねれば時間は取り戻せるが、自分を有能にしていた判断力を静かに損なう。マッキンゼーの調査も、持続可能な導入は受け身の採用ではなく、意図的なリスキリングにかかっていると確認している。OpenAI自身のAcademyはそれを体現するものだ。過去の労働移行で何が機能し、何が機能しなかったかを研究したうえで構築された、無料のリテラシープログラムである。
第3に、透明性は人材定着の戦略である。これらのツールを使う従業員の約3分の1は、その利用を雇用主に隠している。その秘密主義は、コンプライアンスの問題ではなく文化の失敗を示す。オープンな方針を整え、対話を当たり前にし、ツール習熟と並んで人間の判断を報いる組織こそが、技術スキルの価値が下がり続ける中で人材をつなぎ留められる。ジョージタウン大学の研究も、長期的なキャリアの持続性では対人スキルや適応力が技術スキルを上回ることを示している。
リーダーに突きつけられる問い
OpenAIが迅速に自己修正できたのは、問題を検知するためのインフラをすでに構築していたからだ。多くの組織はそうではない。すべてのリーダーが向き合うべき問いは、社員がこれらのツールを使っているかどうかではない。使っているのだ。問うべきは、組織が、そのツールに何をさせているのか、そしてその過程でどんな人間の能力が静かに手放されているのかを把握できているかどうかである。守るべき労働力として最も価値があるのは、なおも人間だ。



