効果的なガバナンスに失敗した場合の代償は机上のものではない。AIシステムは、もっともらしく誤った提案を行う可能性がある。こうしたリスクには、技術的な現実と、人権や法的基準、民主的な説明責任へのコミットメントの両方を反映したガバナンスの枠組みが求められる。
Anthropicの姿勢は、テック業界と政策立案者の双方に対して不愉快な疑問を投げかけている。すなわち、民間企業が技術利用に倫理的境界を設ける場合、その境界が政府の要求と矛盾したときはどうなるのか。逆に、政府が運用上の要請を優先してすべての倫理的制約を放棄した場合、市民の自由や国際規範にどんな影響が及ぶのか。安全性、説明責任、国家安全保障のバランスを取る政策は、その中間にあるべきだ。
AI開発のゆくえ握る論争、ライバル企業は手ぐすね
国防総省が何の制約も受けずに突き進めば、AIの軍事利用は加速するかもしれないが、一般市民の懸念や地政学的不安を煽ることになるだろう。一方、特定の企業が防衛上の要件と相容れない倫理的ガードレールを主張した場合、政府は独自開発に踏み切るか、制約の緩和に前向きな別の企業との協力を選ぶかもしれない。米オープンAIが最近、国防総省との提携を拡大したのはその好例だ。同社は米グーグル、イーロン・マスク率いるxAIと並び、非機密用途の政府契約においてセーフガードの適用を放棄している。
AnthropicはAIの安全性と倫理的な利用に重点を置いているがために米政府と対立している。トランプ政権のAI・暗号資産担当特別顧問のデービッド・サックスは、Anthropicを「ウォーク(意識高い系)なAI」とたびたび揶揄し、恐怖を煽って「規制の虜」状態をつくり出そうとしていると非難している。
今年1月にスイス・ダボスで開かれた世界経済フォーラム(WEF)年次総会(ダボス会議)では、Anthropicのダリオ・アモデイ最高経営責任者(CEO)がトランプ政権の対中AIチップ輸出規制緩和を繰り返し鋭く批判し、「狂気の沙汰」であり「北朝鮮に核兵器を得るようなもの」だと訴えた。
この議論のゆくえは、Anthropicの取締役会や国防総省の会議室にとどまらない大きな重要性を持つ。その結果次第で、AIが世界の地政学的・倫理的状況を安定化させるのか、それとも不安定化させるかの輪郭が明確に描かれ始めるだろう。


