世界は断続的に、ニューラルネットワークが私たちの生活を変える驚異的な力に目覚め始めている。これは適切な対応策を見出し、以前の社会に存在しなかったものを政府がどう扱うかを決定することを意味する。
例えば、ある国のすべての市民が突然X線視力を持ったらどうなるかを考えてみよう。それによって法律や倫理はどう変わり、コミュニティはどのように対応し適応するだろうか?
現在の場合、世界中でAIを使用するためのグローバルソリューションの開発を目指した進化する基準がある。その一つの情報源は米国国立標準技術研究所(NIST)であり、AI標準に関するグローバルエンゲージメント計画というプロジェクトが約1年前に始まった。
「人工知能の開発と使用を形作る上で技術標準の重要性を認識し、2023年10月の大統領令『安全で、セキュアで、信頼できる人工知能の開発と使用について』では、『国際的にAI関連のコンセンサス標準、協力と調整、情報共有の開発と実装を推進するための協調的な取り組み』を求めている」と広報担当者は述べている。
米国以外ではどうだろうか?
経済ブロックを形成する発展途上国のグループであるBRICS諸国は、独自の基準を作成した。人工知能のグローバルガバナンスに関するBRICS基準は、ブラジル、ロシア、インド、中国、南アフリカ、サウジアラビア、エジプト、UAE、エチオピア、インドネシア、イランによる政策的取り組みを表している。(当初のBRIC連合は最初の4カ国で構成されていた。)
AI規制のさらなる進展
スタンフォード大学で最近開催されたイマジネーション・イン・アクション・パネルでは、参加者が現状と、AIの使用にガードレールを設ける様々な取り組みを継続することの重要性について議論した。
「規制によるガードレールがなければ、それは無法地帯だ」とスタンフォード大学のサンミ・コイェジョ助教授は述べた。「人々はそのほうが良いと思うかもしれないが、実際には、この無法地帯で何をすべきかわからないことが多い。なぜなら、行動と合理性の境界が不明確だからだ。そして、明確な規制があれば...多くの場所での採用が容易になり、...規範と行動がどうあるべきか、責任はどこにあるのか、といった問題が示されるだろう。」
スタンフォードHAIのエグゼクティブディレクター、ラッセル・ウォルド氏はステークホルダーの統合について「深く懸念している」と述べ、より広範なマルチステークホルダー環境を求めた。「活発で活気あるオープンソースコミュニティが必要だ。」
解決策への取り組み
プレゼンテーションの冒頭、ウォルド氏は州の機関が協力して取り組んでいることや、一部の国々が独自にAI規制に取り組んでいることについて言及し、米国連邦政府の取り組みを一種の「後退」と特徴づけたが、いくつかの重要な点で限定的な見方を示した。
「この新しい(米国連邦)政権がバイデン政権の立場から大幅に後退したことは明らかだ」と彼は述べた。「しかし、世界的な後退もあった。...これまでの方向性に大きな乖離があり、...規制面で安全性が導入されていたとしても、最適な領域に導入されていなかったと感じた人もいるかもしれない。...一種の大きな変化と、トーンの変化が起きていたと思う。」
連邦政府の協調的な取り組みの代わりに、ウォルド氏は州がその穴を埋める可能性を示唆した。
「連邦レベルでは、この分野で何も起こらない可能性がある」と彼は述べた。「しかし、EUではAI法が進展し、他の国々も対策を適用しているのが見られる。そして米国では、州が積極的に取り組んでいるのが見られる。」
他の協力はビジネスからもたらされる。
モデレーターのクリスタル・フーによる規制の欠如についての質問に対し、「ベストプラクティスに関するエコシステムの多くは、確かに業界によって構築されている」と彼は答えた。「いくつかの州が明確な規制ガイドラインを持てば、それは効果をもたらすだろう。しかし今のところ、多くは互いに話し合っている企業や、適切なガバナンス慣行について考えている安全性の専門家を通じて行われている。」
彼はこの種の分野における活発なプロジェクトの例を挙げた。
「私はAI保険に取り組む小さなグループを支援している。これはこの問題の楽しい新バージョンで、保険価格設定について考えようとしている...なぜなら今や、誰かが支払うお金に変換できるからだ...適切なガバナンスインフラがどのようなものか、テストがどのようなものか、その他の問題について理解するために。しかし、現時点では(主に)業界に任せられていると言えるだろう。」
データの脆弱性はビジネスに悪影響
「企業はデータがモデルのトレーニングにどのように使用されているかを懸念している」とSecuritiのレハン・ジャリル氏は述べた。「もし彼らのデータがモデルのトレーニングに使用され、例えば他の企業が同様の質問をして、以前の企業からのデータでトレーニングされたモデルに基づいて回答を得たらどうなるか。それは正当な懸念だ。自社の専有データを他者の回答に晒したくはないだろう。そのため、多くのガードレールが組み込まれている。」
彼女はGoogleがサポートしているという「エンタープライズ保護」について次のように特徴づけた:
「モデルの独自のバージョンが得られ、すべての出力があなた自身の出力になる」と彼女は述べた。
パネリストのマックス・ナドー氏は、このようなビジネスシステムを開発する際の資金ギャップやその他の問題について言及した。
「これらの評価を私たちが望むほど現実的で難しいものにするには多くの障害があり、コストはその大きな一つだ」と彼は述べた。
水晶玉はない
これらのアイデアはすべて、AIの将来についてある種の手がかりを与えてくれるが、多くの未解決の問題がある。より多くの規制が行われるのか?それはどこから来るのか?そしてオープンソースとクローズドソースのどちらのモデルが勝利するのか?
その一部はデータプライバシーに関係するだろう。一部は経済的インセンティブに関係するだろう。そして一部は政策に関係するだろう。これらすべてが、私たちが完全には理解していないモデルの動作の多くと同様に、大きなブラックボックスを形成している。今後の展開に注目しよう。



