AIは魔法でもなければ、破滅をもたらすものでもない。それは電動工具のようなもの—役立ち、高速で、時に危険を伴う。問題は、より優れたツールを開発すべきかどうかではなく、それを使用する前に安全装置を取り付ける意思があるかどうかだ。
それがニューヨーク州議会議員アレックス・ボレス氏が責任あるAI安全評価法(Responsible AI for Safety Evaluation Act)—略してRAISEで達成しようとしているバランスだ。彼と話し合った際、競争と慎重さの間の緊張関係—AIレースに「勝つ」というプレッシャーと、ブレーキなしのスピードが壁に直行するリスク—について議論した。
ボレス氏は州の役割をイノベーションを遅らせることとは考えていない。彼は、皆が走っている間に床が崩壊するのを防ぐことだと考えている。「州は連邦政府よりも迅速に動くことができます。2023年、ニューヨーク州は約774の法案を可決しましたが、連邦議会は27でした」と彼は私に語った。「これは必ずしも良いことか悪いことかというわけではありません—単に技術が変化したときにより迅速に適応できるということです。」
この機敏さが重要なのは、AIがワシントンが追いつけないペースで進化しているからだ。AI権利章典や自主的な安全誓約などの連邦の取り組みは精神的には価値があるが、実効性に乏しい。一方、州は常にそうしてきたように、政策をプロトタイプとして扱い始めている。
RAISE法が実際に行うこと
RAISE法は、AIに対する包括的な全方位の法律ではない。意図的に範囲が限定されている。「RAISE法は、最終的なモデルのトレーニングに1億ドル以上を費やす絶対的な大規模開発者にのみ適用されます」とボレス氏は説明した。「彼らは安全計画を持ち、重大な安全インシデントを開示し、テストで不合理なリスクが示された場合、そのモデルをリリースできません。」
この特異性が重要だ。小規模なシステムで実験するスタートアップやオープンソース研究者に負担をかけない。市場や国家安全保障を変える可能性のある計算能力を持つフロンティアモデルに焦点を当てている。また、破滅的リスクに対して遠慮なく焦点を当てている。
ボレス氏は「この法案は破滅的な害—生物学的、重要インフラなどに焦点を当てています。アルゴリズムのバイアスや差別については対象としていません。それらには別の法案が取り組んでいます」と述べた。
ボレス氏によれば、その区別が重要だ。あまりにも多くの提案が、ディープフェイクから採用バイアス、絶滅に至るまで、あらゆるAIの懸念を一つの支離滅裂な混乱に束ねている。RAISE法は実存的リスクを独自のカテゴリとして扱い、一方で関連法案はデータの透明性とコンテンツの出所に焦点を当てている。
抜け穴を塞ぐ
この法律はまた、モデル開発におけるより厄介な戦術の一つを予測している:知識蒸留(knowledge distillation)だ。これは小さなモデルが大きなモデルの振る舞いから学ぶ手法である。ボレス氏は、規模を縮小することが責任逃れを意味するべきではないことを明確にしたかった。「私たちは特に知識蒸留されたモデルがカバーされるよう言語を含めました。フロンティアモデルから訓練された小さなバージョンをリリースする場合でも、同じ責任を負います。」
その条項は重要なギャップを埋める。それがなければ、企業は技術的に派生物であって独自のものではないため、その製品は「フロンティアモデル」ではないと主張できる—これは無限のシェルゲームのレシピだ。
透明性へのより広範な推進
ボレス氏はまた、次に来るものを指摘した:「次のステップはトレーニングデータの透明性とC2PAの出所証明です。これらのシステムに何が入力されるかを知り、出力されるものを検証できる必要があります。」
その二部構成の焦点—入力を理解し出力を認証する—は、ほとんどの安全性に関する会話が最終的に行き着く場所だ。モデルを訓練したデータを知り、それが生成するものの出所を証明できれば、信頼について推論できる。そうでなければ、私たちはただ機械が良い振る舞いをすることを願うだけだ。
コンテンツ出所と真正性のための連合(Coalition for Content Provenance and Authenticity)—略してC2PA—は、デジタルコンテンツの出所と履歴を検証するためのオープンな技術標準を開発した組織だ。これらの出所証明標準はすでに存在し、カメラ、編集ツール、AIジェネレーターに組み込んで、画像や動画が合成的に変更されたときにフラグを立てることができる。このアプローチを義務付ける—あるいは少なくとも標準化する—ことで、ディープフェイクの説得力を一夜にして低下させる可能性がある。
州がAI法の第一草案を書いている
ニューヨークだけではない。カリフォルニア州も最近、独自のAI説明責任法(SB 1047)を可決し、9月にギャビン・ニューサム知事が署名した。RAISEと同様に、高計算能力のフロンティアシステムを対象とし、開発者に安全慣行の文書化、リスク評価の実施、モデルが予測不可能に動作した場合の「キルスイッチ」の実装を要求している。それに並行して、SB 896は生成AIがディープフェイクや誤情報に果たす役割に取り組み、合成メディアが有権者や消費者を誤解させる可能性がある場合に、より明確な開示を義務付けている。
これらの法律は一緒になってパターンを示している:州はワシントンを待っていない。彼らは実験している—連邦の取り組みが主に助言的なままである間、AI開発のための実用的な境界を設定している。
確かに混沌としている。しかし、これはアメリカのガバナンスが常に機能してきた方法でもある。民主主義の実験室は、テストを開始するための許可を必要としない。
私の見解:構造を伴うスピード
私はサイバーセキュリティを取材するのに十分な年月を費やし、規制が悪意ある行為者を止めないことを知っている。犯罪者は一般的に自分が何か悪いことをしていると知っており、それを定義する新しい法律を作ることは、高校での銃乱射事件の後に思いやりと祈りを共有するのと同じだ。それは問題に対処したり解決したりするために何もしない願望的思考だ。
しかし、願わくば、このような規制が次の大惨事がケーススタディになるのを防ぐことができるだろう。RAISE法は実用的であり、パフォーマンス的ではない。規制当局に事前の害を防ぐブレーキ—開発者自身がリスクがあると認める発表に疑問を投げかける権限—を与える。これは、私たちが通常行う事後の責任転嫁ゲームからの稀で必要なシフトだ。
セキュリティの専門家はその可能性を見ている。ヴィニータ・サンガラジュ氏、ブラックダックのセキュリティソリューションエンジニアは、RAISEを「今日のAIの競争において責任あるイノベーションに向けた長い間待ち望まれた画期的な一歩」と呼んだ。彼女は、これがスピードから説明責任への会話を変えると信じている。「RAISEは企業とその顧客に、フロンティアAIシステムが責任ある開発の基準を満たしていることを保証し、加速するリスクの時代にビジネスイノベーションを自信を持って解き放つことを可能にします」と彼女は私に語った。サンガラジュ氏は、この法律が独立した第三者検証とより技術的なテスト—敵対的シミュレーション、プロンプトインジェクションチェック、その他のストレステスト—でさらに進化し、能力だけでなく回復力も証明できると付け加えた。
全員がその楽観論を共有しているわけではない。サイバーリスクインテリジェンス企業iCOUNTERのCEO、ジョン・ワッターズ氏はRAISEを「理論的には優雅だが、実行不可能」と見ている。彼の言葉によれば、「AIは銃のようなもの—自分を守るためにも、銀行強盗にも使える」。彼の懸念は、ルールがデータセットを簡単に制約できないこと、または二重使用を防げないことだ:ネットワークの防御を強化するのと同じAIが、侵入のためにそれをマッピングする攻撃者を助けることもできる。サイバースペースでは、彼は問題はスピードだけではなく、最大限のイノベーションを追求する中で最小限の実行可能な防御をリリースする習慣だと主張する。
両方の見解が真実を含んでいる。セキュリティエンジニアは測定可能な基準を望み、リスクアナリストは執行可能性を懸念している。その間にある現実は:進歩には摩擦が必要だということだ。ガードレールは動きを止める必要はない—ただ崖から外れるのを防ぐだけだ。
ここにはより大きな教訓もある。私たちは「AIレース」について、あたかもゴールラインが発見そのものであるかのように話す。しかし歴史が示すように—核、化学、サイバーのいずれであれ—真のゴールラインは安全で安定した使用だ。勝つということは最初になることではなく、レースに留まるのに十分持続可能であることを意味する。
RAISEやカリフォルニア州のSB 1047のような州レベルの枠組みがすべてを解決するわけではない。それらは進化し、分裂し、反復するだろう—ちょうどそれらが統治する技術のように。しかし、それらは勢いと先例を作り出す—より賢明な国家政策が形を取るための足場だ。
代替案は、私たちがすでにオンラインで形成されているのを見ている無法地帯だ:追跡不可能なモデル、出所のない合成メディア、そして「展開するには危険すぎる」という共有された閾値がない。RAISEはイノベーションを禁止するものではない。ただ、導火線に火をつける前に大人のように考えることを開発者に求めるだけだ。
それは物議を醸すべきことではない。それは進歩のための基準であるべきだ。



