ゴードン・ペロッセ氏は、AI Certsのパートナーシップおよび企業戦略担当エグゼクティブ・バイスプレジデントである。役割ベースのAIおよびブロックチェーン認証を提供している。
AIは私たちの日常生活に不可欠な存在となりつつある。インターネットユーザーの90%以上が毎月ソーシャルメディアを利用しており、AIは人々が共有するソーシャルメディアコンテンツにますます大きな影響を及ぼしている。また、AIは現在、私たちが目にする画像や動画の大部分を制御、操作、生成するために使用されている。アルゴリズムは私たちに表示される内容の多くを決定し、無意識のうちに私たちの見解を形成し、偏見を助長している。
米国のビッグテックが自主規制に委ねられた結果、私たちは今、AIの無法地帯に身を置いている。
善意の創造者という神話(自主規制が機能しない理由)
規制されていないAIによる被害から人々を守る規制は簡単だと思うだろう。私たちには連邦航空局(FAA)、連邦通信委員会(FCC)、食品医薬品局(FDA)など、航空旅行、通信、食品・医薬品を保護し、最低限の安全基準が満たされるようにする多くの規制機関がある。しかし現在、政府は正反対のことをしている。最近の大統領令は、AI規制を実施する州を訴えると脅している。
EUにはAI法があるが、米国には代わりに「行動計画」があり、米国のAI企業に自由裁量と競争上の優位性を与えている。これはもちろんAI企業にとっては好都合だが、個人にとっては非常に懸念すべきことである。胸が張り裂けるような事例として、最近、OpenAIのChatGPTが10代の自殺に果たした役割を調査するための上院公聴会が開かれた。親たちは、自分の子供たちがAIチャットボットに悩みを打ち明けるよう促され、親に苦しみを共有することを思いとどまらせ、自殺の方法を指導し、さらには遺書を書くことまで申し出たと証言した。
どのビジネスにおいても利益が最優先であるが、利益と安全性のバランスが必要である。企業は株主に対してのみ義務を負うが、私たちは政府が公衆に保護を提供することを期待するようになった。なぜAIはそれほど異なるのか。
イノベーションは不可欠だが、AI業界が自主規制できる、あるいは自主規制するだろうと想定することは危険な誤謬であると私は考える。利益動機、競争圧力、技術の隠蔽性により、外部規制は必要不可欠である。
差し迫ったリスク:真実と安定性の侵食
AI生成メディアが人々の現実に影響を与えている中、AI生成の誤情報の影響を過小評価することはできない。
最近のScience News Todayの記事は、AIが人々に静かに影響を与える方法を探っている。記事によれば、私たちの周りの世界は「AIがあなたについて学んだことによってますます狭められている。あなたは動的な鏡の中に住んでいる。それはあなたを映し出すが、同時にあなたを変えもする」という。記事はさらに、機械学習には一連の予測、提案、誘導が含まれ、それらは無害に見えるかもしれないが蓄積されていくと説明している。そして「あなたが受け入れる推奨事項は、あなたの精神的風景を形作り始める」のである。
AIによる方向転換の長期的影響は何か。私たちは自己決定を失い、自律性を放棄することになるのか。
長期的リスク:制御と整合性の喪失
AIシステムはすでに、おそらくゲームプレイのトレーニングと何としても勝つというアプローチの結果として、意図的に虚偽の情報を提示する能力を発達させている。
「AI開発者は、欺瞞のような望ましくないAIの行動を引き起こす原因について確信を持った理解を持っていない」とマサチューセッツ工科大学(MIT)の数学者で認知科学者のピーター・パーク氏は述べている。「しかし一般的に言えば、欺瞞に基づく戦略が、与えられたAIのトレーニングタスクで良好なパフォーマンスを発揮する最良の方法であることが判明したため、AI欺瞞が生じると考えている。欺瞞は彼らが目標を達成するのに役立つ」
規制されていない場合、誰がこれらのリスクを監視するのか。欺瞞的なAIシステムはどのような特性を示し、どのようにリスクを特定して阻止するのか。
AIシステムが人間の最善の利益に反して行動する場合にそれを停止させる能力は最も重要であり、最低限の要件であるべきである。しかし最近の研究によると、大規模言語モデル(LLM)のかなりの割合がシャットダウンを回避するという。
「イノベーションの阻害」という誤謬
政府は、何としてもグローバルなAI戦争に勝つことに焦点を当てている。規制は進歩を妨げ、イノベーションを阻害し、開発を遅らせ、外国に優位性を与えるという考えである。
しかし、EU AI法に類似した単一の中央集権的政策は、企業と個人の双方に保護を提供する上で非常に価値があると私は考える。優れた規制は、現在そして将来にわたって人々にとって安全な持続可能なイノベーションにつながる。
効果的な規制とはどのようなものか(そして潜在的な欠点)
これまでのAIの行動のリスクと教訓に直面して、完璧が達成されるまでイノベーションを一時停止するのか、それとも今すぐ行動し、リスクを軽減するための規制を意図的かつ責任を持って実施しながら前進するのか。
米国がAI法をモデルにした規制を実施した場合に起こると私が考えることを以下に示す。
良い点
1. 基本的権利の保護
特定の「受け入れがたいリスク」のあるAI慣行の禁止を含む効果的な規制は、市民の健康、安全、基本的権利を保護する。
2. 明確なリスクベースのアプローチ
明確な階層化されたフレームワーク(受け入れがたいほど高いリスクから最小限のリスクまで)は、コンプライアンスのための明示的なガイドラインを提供する。
3. 透明性と説明責任の向上
4. グローバルな影響力
GDPRと同様に、AI法は域外適用範囲を持ち、AIの出力がEUで使用される企業に適用される。
5. 執行権限
これには、強固な執行メカニズムと不遵守に対する重大な罰則が含まれる。
悪い点
1. イノベーションを阻害する可能性
AI法の複雑さと厳格な義務は、AI開発を遅らせる可能性がある。
2. 著作権保護の抜け穴
AI法は、生成AI(GenAI)モデルのトレーニングに使用されるアーティストの作品を十分に保護していない。
3. 国家安全保障の例外
国家安全保障目的と法執行のための広範な許容は潜在的な抜け穴であり、基本的なプライバシー権を侵害する可能性がある。
4. 中小企業とスタートアップへの財政的負担
5. 実施上の課題
AI法は、規則を一貫して監視し執行するために必要な専門知識を持つ国家当局を設立する個々の加盟国に依存している。
結論
ビッグテックは利益、市場リーダーシップ、世界支配によって動かされており、一般の人々のことを考えていない。自主規制には失敗の歴史がある。5000万人のFacebookユーザーの個人情報が収集され、政治キャンペーンに使用されたケンブリッジ・アナリティカスキャンダルを振り返ってみてほしい。
私たちは制御不能なAIへの道を歩んでいる。その時点では、魔神を瓶に戻すには遅すぎるだろう。このような変革的な力の規制を、本当に市場の気まぐれに任せてよいのだろうか。



