AI

2026.04.12 11:46

AIの安全装置が崩壊するとき──業界全体で進む「安全文化」の後退

Adobe Stock

Adobe Stock

ゴードン・ペロッセ氏は、AI Certsのパートナーシップおよびエンタープライズ戦略担当エグゼクティブ・バイスプレジデントである。役割ベースのAIおよびブロックチェーン認証を提供している。

私はテクノロジー業界で40年以上を過ごしてきた。PCの登場を目の当たりにし、それが目新しいものから必需品へと変わるのを見てきた。インターネットが一夜にして業界全体を再編する様子も見た。AT&T、コンパック、HP、HPEで、数え切れないほどの破壊、統合、再発明のサイクルを経験してきた。だから、2026年2月に起きたことが私に一時停止を促したと言うとき、それが本物の出来事だったことを理解してほしい。

1カ月の間に3つの出来事が起きた。Anthropic(アンソロピック)のセーフガード研究チーム責任者であるムリナンク・シャルマ氏が公に辞任した。彼の別れのメッセージは1500万回閲覧された。人々が引用し続けた一文は「世界は危機に瀕している」だった。2週間後、ピート・ヘグセス国防長官はAnthropicのCEOであるダリオ・アモデイ氏に金曜日の最後通告を突きつけた。自律型兵器と国内大規模監視に関するClaude(クロード)の安全制限を撤廃しなければ、2億ドルの国防総省契約を失い、国家安全保障上のリスクとしてブラックリストに載せるというものだった。同じ週、Anthropicは静かに安全誓約を撤回し、より柔軟なものを導入した。

3つの出来事。1カ月。もしあなたが人々をリードする立場にあるなら、細心の注意を払うべきだ。

圧力は現実のものである

Anthropicは無謀なスタートアップではなかった。責任あるAI構築を目的として設立された企業だ。Claudeは、その安全へのコミットメントゆえに、米国政府の機密ネットワークで承認された唯一の大規模言語モデル(LLM)となった。それなのに、今こうした状況にある。

国防総省のニュースが報じられる前に書かれたシャルマ氏の辞任の手紙は、安全上の懸念が日常的に脇に追いやられる文化を描写していた。彼の最後の研究プロジェクトは、すでに数千件の日常的なAIインタラクションがユーザーの現実認識を歪めており、人間関係やメンタルヘルスといった分野で高い割合を示していることを記録していた。理論上の将来的リスクではない。現在進行形だ。本番環境で。今。

1週間後、OpenAI(オープンAI)でも同様の辞任が起き、これも商業化の圧力が理由だった。これらは孤立した出来事ではない。パターンだ。責任あるAI設計を形成してきた社内の安全文化が、業界全体で同時に圧力を受けている。

AnthropicのCEO自身が語ったこと

2026年1月、ダリオ・アモデイ氏は「テクノロジーの青年期」というエッセイを発表した。これは私が読んだ中で最も冷静な内容の一つであり、長年にわたって多くのテクノロジー予測を読んできた者としてそう言っている。その多くは間違っていた。これは違った。部分的には、実際にこれらのシステムを構築しており、失うものがある人物から発せられたものだからだ。

彼は、ノーベル賞受賞者よりも賢いAIが、数百万の自律的インスタンスを同時に実行し、1〜2年以内に到来する可能性があると述べている。彼は5つの文明的リスクカテゴリーを示している。AIの暴走、生物兵器の実現、権威主義的監視、大規模な経済的置き換え、連鎖的な社会崩壊だ。彼はこれらを遠い未来のシナリオとしてではなく、近い将来の確率として扱っている。

経済的置き換えの部分について少し考えたい。なぜなら、これが人事や労働力リーダーシップに携わる人々に最も直接的に関連するものだからだ。アモデイ氏は、エントリーレベルのホワイトカラー職の50%が1〜5年以内に置き換えられる可能性があると予測している。この自動化の波が以前のものと異なるのは、スピードだけではない。広さだ。以前の自動化は反復的な仕事を奪い、判断を要する仕事を残した。しかしAIは両方が得意だ。また、歴史的に置き換えられた労働者を吸収してきた新しい仕事でも競争力を持つだろう。これは異なる種類の破壊であり、これを2030年の問題として扱う労働力計画はすでに遅れている。

なぜこれが今すぐ人事の問題なのか

この問題に関するほとんどの議論で見逃されていると思われる関連性がある。あなたの組織で候補者スクリーニング、業績評価、ウェルネスチェックイン、社内コミュニケーションを管理しているAIツールは、これらと同じ企業によって、同じトレードオフをナビゲートしながら構築されたものだ。政府や商業的圧力の下で安全へのコミットメントが緩むとき、それらの変更は軍事用途に隔離されたままではない。エンタープライズ製品に移行する。防衛契約を獲得するために安全分類器を削除するベンダーは、エンタープライズクライアントがより少ない制限を求めるとき、同一の構造的インセンティブに直面する。

ベンダーの安全慣行について厳しい質問をせずにAIツールを展開しているなら、あなたはデジタルトランスフォーメーションをリードしているのではない。リスクを従業員と組織に直接転嫁しているのだ。

今すぐ実行する価値のある4つのこと

第一に、ベンダーに厳しい質問をすることだ。AIツールを展開する前に、直接尋ねるべきだ。「あなたの安全上のレッドラインは何か。最新のポリシー更新で何が変わり、なぜか」。ベンダーが明確に答えられないなら、それはテクノロジーの決定ではなく、調達の決定だ。

次に、人事をガバナンステーブルに置くこと──後ではなく、前に。AI展開の決定は根本的に人の決定だ。契約が署名された後に相談されているなら、それは変える必要がある。

また、持続可能な人間のスキルに意図的に投資することだ。倫理的推論、関係性インテリジェンス、文脈的判断。これらは、生の認知スループットが安価になった世界で最も防御可能な能力だ。意図的に構築すべきだ。

最後に、内部の声のためのスペースを作ることだ。シャルマ氏の最も鋭い批判は、安全上の懸念が組織的に抑圧されていたことだった。そのダイナミクスは、従業員が懸念を提起するための真のチャネルなしに強力なツールを展開するすべての組織に存在する。必要になる前にそのインフラを構築すべきだ。

私たち全員が内側で生きている問いかけ

アモデイ氏はエッセイをカール・セーガンからの問いかけで始めている。「あなたたちは自分自身を破壊することなく、どのようにして技術的青年期を生き延びたのか」

私たちはまだ答えを持っていない。私が知っているのは、1カ月の間に、業界で最も安全重視の企業のAI安全責任者が公の警告とともに辞任し、国防総省がガードレールを維持したその企業を脅迫後にブラックリストに載せ、企業が安全ポリシーを緩和した後でさえそうし、国防総省がそれほど原則的でない競合他社と契約を結んだということだ。

これらのことを読むとき、私は自分の子供たちや孫たちのことを考える。私はキャリアを通じて未来に賭けてきたが、それを後悔したことはほとんどない。しかし、未来に賭けることと、そのリスクについて明確な目を持つことは、対立する立場ではない。それらは同じ立場であり、機会と責任の両方を真剣に受け止める人々が持つものだ。

この困難な状況をうまくナビゲートするリーダーは、最も速く動く者ではないだろう。動く前に正しい質問をする者だ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事