年俸55万ドル(約8600万円。1ドル=156円換算)+株式報酬──。
これは、OpenAIが新設する「Head of Preparedness」(AI準備態勢責任者、OpenAIの「Preparedness Framework」[AI評価・脅威モデル・安全策フレームワーク]の技術統括を行う)採用候補者に提示している、目を見張るような報酬額だ。
これはOpenAIにとって初めての種類のポジションで、名称はいささかぎこちないものの、OpenAIがステークホルダーやAI批判者からどう見られるかだけでなく、2026年にAI人材市場の需要がどう進化するかという点も根本的に変える可能性がある。
では、なぜOpenAIはサンフランシスコ拠点のこの職に、55万ドル(約8600万円)超の給与に加えて株式報酬まで提示するのか。
OpenAIの「AI準備態勢責任者」は実際に何をするのか
平たくいえば、この役割は次の業務を担う。
・OpenAIの「AI Preparedness Framework」(AI評価・脅威モデル・安全策フレームワーク)を主導する
・フロンティアAI(最先端AI)の能力を評価する
・サイバー領域やバイオ領域など、新たなリスク領域にまたがって脅威モデリングを行う
・各ローンチ判断ごとにセーフガード(安全策)を策定する
・ポリシー、研究、エンジニアリング、プロダクト各チームと部門横断で連携・調整する
OpenAIは採用ページで、この職がAIガバナンスの全責任を担い、AI準備態勢戦略を「エンドツーエンド」で担う立場だとしている。
この職での意思決定は重大で影響範囲も広く、子どもや脆弱な立場の人々、そして社会と環境全体の安全を左右することになる。
AIの安全性強化がかかわる採用に力を入れる企業
ただ、この職名(Head of Preparedness)自体は間違いなく独特であるものの、OpenAIが「AI準備態勢責任者」にあたる役職を設けた最初の組織というわけではない。
現在、AIスタートアップ、研究機関、さらにはテック以外の企業に至るまでの組織が、AIの安全性に関する採用を強化している。
・Anthropic(アンソロピック):現在、Technical Policy Lead, Government & Third-Party Safety Partnerships(勤務地はサンフランシスコまたはワシントンD.C.)および Policy Advisor(英国拠点)を採用中。なお、適切な場合にはビザ支援も行う。
・Google DeepMind(グーグル・ディープマインド):Research Engineer, Frontier Safety Risk Assessment および Research Engineer, Agentic Safety
・アクセンチュア:Responsible AI Advisor
なぜOpenAIはこの職を採用するのか
AI Preparedness(AI準備態勢)は、AIの実装と同じくらい重要である。現状では企業が事後対応になりがちで、先回りして手を打てていない。
例えば「シャドーAI」の増加がある。従業員が雇用主に知られないままAIを使う状況であり、こうしたAIツールの利用はサイバーセキュリティの観点から組織に現実的なリスクをもたらしている。
また、子どもや脆弱な若者がチャットボットのChatGPTと会話し、その直後に自殺へと導かれたとして、OpenAIのような企業を脅かす訴訟も起きている。
こうした状況は、画期的な新たなブレークスルーやフロンティアAIがローンチされる前に、企業が安全プロトコルとガバナンス・フレームワークをローンチ工程に組み込み、技術の中核機能として運用する必要性を一層高めている。
この切迫した必要性のために、AIは、これまで耳にしなかった、あるいは一般化していなかった新しい職種カテゴリーを生み出している。



