今回のコラムでは、AIと人類の未来をめぐる喧騒や騒動に対して、一般市民がどのように反応しているかを調査した、最近公表された調査結果を検証する。
インターネット接続のない洞窟に住んでいるのでもない限り、AIに関する大胆な予測や誇張された宣言に日々さらされていないはずがない。ある時、見出しはAIが全人類を一掃すると告げる。それで終わりだ。次の瞬間には、AIがあらゆる病気を治し、人間の寿命を現在の平均余命を超えて延ばすという興奮が巻き起こる。世界人口は豊かに増加し、私たちは皆、安楽な生活を送ることになる。
興味深く、かつ重要な問題は、こうした厚かましい宣言が実際に人々の心に届いているかどうかである。人々は本当にこうした作為的な流行に飛びつくのだろうか。それとも、一般市民はこの騒ぎ全体を大量の雑音と空虚な言葉として扱っているのだろうか。評論家たちは自分たちが支持を得ていると思い込んでいる。そうかもしれないし、そうでないかもしれない。
この世論の誘導は極めて重要である。なぜなら、世論の認識が、政策立案者や立法者がAIの進歩を規制するか、過剰規制するか、規制不足にするかの選択を左右するからだ。一般市民が本当に影響を受けているのか、もしそうなら、どの角度や姿勢が最も説得力があるのかを理解することが不可欠である。
AIの進歩は、電光石火の速さで進むよう規制されるか、カタツムリのような遅さに減速させられるかのいずれかとなる。特定の種類のAIやAIへのアプローチを禁止するという話さえある。こちらのリンクとこちらのリンクで私の記事を参照されたい。選択肢は山ほどある。立法者たちは、AIをどの方向に導くべきかについて世論を注視している。
この問題について議論しよう。
このAIブレークスルーの分析は、最新のAIに関する私の継続的なフォーブスコラムの一部であり、影響力のあるAIの複雑性を特定し説明することを含んでいる(こちらのリンクを参照)。
AIと法律
簡単な背景として、私は長年にわたり、AIと法律の交差点に関する無数の側面を広範囲にカバーし、分析してきた。私の執筆は、フォーブスコラムだけでなく、Bloomberg Law、ABA Law Journal、The National Jurist、The Global Legal Post、Lawyer Monthly、The Legal Technologist、MIT Computational Law Journalなどにも掲載されている。
AIと法律の組み合わせには、2つの主要な視点がある。
- (1) 法律とAI。AIのガバナンスと規制への法律の適用。
- (2) AIと法律。法的推論を実行するためのAIの適用。
つまり、法律をAIに適用することができ、逆に、AIを法律に適用することもできる。これら2つのエキサイティングで急速に進化する領域の全体像については、こちらのリンクとこちらのリンクでの私の議論を参照されたい。
法律をAIに適用する場合、目的は、AIがどのように考案され実装されるべきかについて、適切な規制を確立し、適切なガバナンスを提供することである。AI開発者が自社製品の倫理的影響に十分な注意を払っていないという長年の懸念がある。倫理的問題は「ソフトロー」として解釈され、法的に制定された法律、いわゆる「ハードロー」ほど強力ではない。競争条件を平等にし、AI開発者を正しい道に留めるために、AIに関する法律を制定する立法者がもっと必要だと考える人もいる。
新しいAI法を次々と積み重ねるのは簡単に思えるかもしれない。問題は、新しいAI法ごとに、混乱を生み出し、AIへの期待を濁らせる確実な可能性があることだ。そう、皮肉なことに、AI法は物事を整理するはずなのに、適切に作成されなければ、あらゆる種類の望ましくない悪影響をもたらす可能性がある。
AIの未来と人類の未来
AIと人類の未来に関する大げさな宣言の熱狂的な市場には、2つの主要な教義または陣営がある。悲観的な顔をしたAIドゥーマー(AI悲観論者)と、幸せな顔をしたAIアクセラレーショニスト(AI加速主義者、AIズーマーとも呼ばれる)である。これら2つの分断に関する良い点、悪い点、醜い点についての詳細な説明は、こちらのリンクを参照されたい。
簡単に概要を説明しよう。
AIドゥーマーは悲観論者だと言われている。彼らは、高度なAIに関連するリスクが極めて高いと信じている。AIは私たちを奴隷にするか、そうでなければ、おそらく私たちを一掃するだろう。どちらかを選べ。どちらの選択肢も口に合わないようだ。これは、AIが人工汎用知能(AGI)になるほど十分に進歩した時に起こるかもしれない。AGIとは、AIが人間の知性と同等になることである。次のステップは人工超知能(ASI)となる。ASIは人間の知性を超えるタイプのAIであり、おそらく私たちの知的能力をはるかに超える。その時点で、私たちはASIが持つ洞察力と比較して蟻のような存在になる。AI、AGI、ASIの違いの詳細については、こちらのリンクでの私の詳細な分析を参照されたい。
AIドゥーマーに関連する一般的なキャッチフレーズには、次のような注目すべき発言が含まれるが、これらに限定されない。破滅と暗黒の提唱者、世界が終わると警告する警告者、主にAIを悪または悪につながるものとして評価する、不遜にもラッダイト2.0と呼ばれる、そしてAIが人類の最後の発明になると破滅的に宣言する(AGIまたはASIに到達した後、その時点で存在する人類を破壊することによる)。彼らはAIを実存的リスク、X-リスクと呼ばれるものとして強く信じており、私たちの破滅の確率を数学的関数p(doom)として推定している。
コインの裏側
話を変えて、AIアクセラレーショニストは楽観論者だと言われている。
彼らは、AGIやASIのような高度なAIが人類の問題を解決すると主張する傾向がある。がんを治す、確かにそうだ。世界の飢餓を克服する、絶対に。私たちは莫大な経済的利益を目にし、人々を日々の苦役から解放する。AIは人間と手を取り合って働く。この慈悲深いAIは人類を奪うつもりはない。この性質のAIは人間が今まで作った最後の発明となるが、それは良いことである。なぜなら、AIが私たちに代わって、私たちが想像もできなかったものを発明するからだ。
AIアクセラレーショニストは、AIが明るく輝く解放者であり、人類をこれまで予想されなかったより高いレベルへと飛躍させると信じていると解釈する人もいる。AIは善であり、善の推進者となる。誇りを持ってその旗を力強く掲げるAIアクセラレーショニストは、しばしばAI伝道者というレッテルを貼られる。
2つの陣営または教義が正反対であることは、知っているか、簡単に推測できるだろう。AIドゥーマーは、自分たちがAI悲観論者ではなくAI現実主義者であると主張する傾向があり、AIアクセラレーショニストは、自分たちがAI楽観論者であるというよりも真のAI現実主義者であると主張する。各陣営は相手側を非難する傾向がある。時にはこれは論理的で慎重なトーンで行われるが、他の時には非常に険悪で、ひどい罵り合いに陥る。
新しいAI法がAIの行方を形作る
立法者は、どちらの陣営に味方するかによって大きく異なる。
一部の立法者は完全にAIドゥーム陣営にいる。彼らの立法努力は、AIを制限し、AI開発者を管理し、そうでなければ制御不能に見えるAIの進歩を遅らせることを目指している。AIアクセラレーショニスト陣営にしっかりと居座る立法者もいる。彼らは新しいAI法を防ぐか、少なくともそのような法律を形作って、妨害的な制約なしに急速なAIの進歩が続くようにしようとしている。
もちろん、中間にいるか、どの方向に進みたいかを決めていない立法者も多い。そうした未決定の立法者は通常、世論がどこに落ち着くかを見守り、待っている。これはおそらく政治的に賢明なアプローチである。一方を選択し、その後、有権者がその側を支持していないことがわかるのは、政治的に賢明ではないように思われる。立法者としての長寿命は、彼らがどのように進むかを選択するかによって危機に瀕する可能性がある。
一方、ニュースやソーシャルメディアのすべての評論家たちは、自分たちが好む側への注目を集めようと努力し続けている。論理を使ってAIがどれほど驚くほど良いか、またはひどく悪いかを説明しようとする人もいる。他の人々は人々を煽ろうとする。人々の感情を狙う。彼らのボタンを押す。必要なあらゆる手段を使って、一方への支持を得る。
なぜこれらの評論家たちはこれをするのか。
多くの理由が関係している。例えば以下のようなものだ。
- AIに関する自分の意見への真の信念。
- 閲覧数とクリック数を求める。
- 現代のノストラダムスになりたい。
- その賭けに金銭的な利害関係がある。
- 名声と大衆の称賛を切望する。
- 他者に煽られる。
- 自分が見ている「真実」を共有する義務を感じる。
- その立場に感情的に結びついている。
- 相手側を弱体化させることを目指す。
- その他。
これらのいずれもが動機となり得る。動機は組み合わせることができ、評論家は一度に多くの動機を体現する可能性がある。別の可能性は、彼らがある動機から別の動機へと移行することである。常に警戒を怠らず、懐疑心をしっかりと持ち続けることだ。
世論を動かすもの
大きな問題は、AIと人類の未来に関する日々の砲撃が実際に人々の心に入り込んでいるかどうかである。AIコミュニティ内では、AIの未来がどこに向かっているかほど重要なことはほとんどない。しかし、一般市民はAIの詳細にそれほど注意を払っていないかもしれない。
人々は日々の責任を心に抱えている。日々の費用を賄えるだろうか。既存の仕事を維持できるだろうか。家を買うことは可能だろうか。重要なすべての生活必需品の問題は、AIの未来についての大げさな話よりも、おそらく個人的により注目に値する。
最近の調査は、AIと未来に関して一般市民の心にあるものについて興味深い見解を提供している。Markus Ostarek氏、Catchy Rogers氏、Ben Kenward氏、Sam Nadel氏、Social Change Lab、2026年3月による「Which AI Harms And Risks Will Mobilize The Public To Act?」と題された公表研究では、これらの顕著な点が指摘された(抜粋)。
- 「広範な懸念とAI規制への幅広い支持にもかかわらず、AIは依然として重要度の低い問題である。人々に最も重要な問題について尋ねられると、AIは低くランク付けされる」
- 「『動員ギャップ』がある──気にかけることと行動することの間のギャップである。この研究は、そのギャップを埋める可能性のあるものを調査する」
- 「AIが人類にもたらす絶滅リスク(X-リスク)は、あらゆる害やリスクの中で最も低いレベルの懸念だった。具体的で現在の害は、X-リスクについてコミュニケーションするより良い方法かもしれない」
- 「AI対応の戦争は、3つの尺度すべてで人々を確実に動かした唯一の条件である。それはAIが脅威であるという同意を高め、AI開発を遅らせる必要があるという同意を高め、AIに対する政府規制の強化への支持を高めた」
- 「行動を起こす意欲の心理的推進力は、怒り(不安や恐怖ではない)、リスクの時間的近接性の認識(より早い方が強い)、そして自分自身ではなく他者への懸念だった」
この調査によると、AIは全体的に懸念のやや低いランクのトピックであり、これはAI愛好家には驚きかもしれないが、AIのエコーチェンバーの外にいる人々には特に衝撃的ではない。私が行うさまざまな公開講演からの印象は、AIは確かにある程度価値のある懸念事項であるが、生活の経済状況や今日の存在の継続的な摩擦が、より高くランク付けされる傾向があるということだ。
世論認識に関する洞察
この研究で指摘された目を見張る点は、人々がAIトピックについて気にかけることと、AIトピックについて行動することの間に区別があるということである。詳しく説明しよう。人はあるAIがこれやあれをすることを気にかけていると言うかもしれない。それは表面的には説得力があるように見える。ひねりは、彼らが必ずしもそれについて積極的に何かをするとは限らないということだ。「気にかけること」と「行動すること」は、2つの異なるレベルの懸念とコミットメントであることを必ず認識してほしい。
研究者たちは、この気にかけることと行動することの間のギャップを動員ギャップと表現している。人々は何かが自分たちを懸念させると言うが、必ずしもそれについて直接行動するために自分の道を外れることはない。この点に関するいくつかのハイライトを簡単に説明する。詳細を知るには、完全な研究を読むことをお勧めする。
まず、研究者が回答者に尋ねる11のトピックを選択したことに注意してほしい。これは重要である。なぜなら、調査を受けた回答者はこれら11のトピックに焦点を当てていたからだ。リストにない他のAIに関するトピックは、この調査では明示的に表されていない。つまり、これら11のトピック以外のAIトピックがある場合、回答者がその追加トピックについて尋ねられていなかったという意味で、そのトピックがこれらのトピックとどのように比較されるかについて実質的な主張をすることはできない。調査結果を過度に拡張しないでほしい。
選択された11のAIトピック
まず、11のトピックをアルファベット順に並べて示す。これは、これらが全体として11のトピックであることを最初に強調するためである。このアルファベット順の配列は、回答者によるランク付けされた好みについては何も語っていない。
それでは、アルファベット順に示された11のトピックを以下に示す。
- AI対応の詐欺。
- AIによって制御される自律型兵器。
- AIシステムに含まれるバイアス。
- AIによる偽情報。
- AIデータセンターによってもたらされる環境被害。
- AIへの依存による人間の認知能力の低下。
- AIの結果としての人類絶滅リスク。
- AIによる雇用の喪失。
- AIによって生成される誤情報。
- AIコンパニオンへの依存による社会的孤立。
- AIの使用による監視。
少し時間を取って、これら11のAIトピックにどのようなランキングを付けるか考えてみてほしい。どれが最も懸念されるか。どれが最も懸念されないか。どれについて最も行動を起こす可能性が高いか。どれについて最も行動を起こす可能性が低いか。
上質なワインを一杯手に取り、静かな場所を見つけて、個人的なランキングを作成してほしい。
懸念によるランキング
研究で提示された統計を簡略化する。回答者全体で表明された、最も懸念されるものから最も懸念されないものまでのランキングで11のトピックを示すことにした。
おそらくあなたが少し前に個人的に作成したリストと、このリストを比較してみてほしい。
最も懸念されるものから最も懸念されないものの順にリストされたトピックは以下の通りである。
- (1) AIによって生成される誤情報。
- (2) AIによって制御される自律型兵器。
- (3) AIによる偽情報。
- (4) AI対応の詐欺。
- (5) AIシステムに含まれるバイアス。
- (6) AIデータセンターによってもたらされる環境被害。
- (7) AIによる雇用の喪失。
- (8) AIへの依存による人間の認知能力の低下。
- (9) AIの使用による監視。
- (10) AIコンパニオンへの依存による社会的孤立。
- (11) AIの結果としての人類絶滅リスク。
先ほど抜粋した要約ポイントにあるように、人類絶滅またはX-リスクは懸念リストの最下位に位置している。したがって、11のランク付けされた懸念の中で、人々は全体的にX-リスクを最下位に置いた。
それは驚くべきことか、あるいは衝撃的なことか。
いや。他の10のトピックについて注意深く考えれば、それらは人々の日常生活にはるかに近い。人々はおそらく、このSF的な絶滅の物語全体が現実であるか、もしそれが起こるとしても、それは遠い未来のことだと疑っている。他の10のトピックには、より日常的な生活必需品の問題が含まれている。
実際、上位3つを見てみよう。AI生成の誤情報トピックがトップに来ており、AI偽情報生成が3位に入っている。これらは明らかに人々が苦労している目の前のトピックである。これらのトピックが上位にランク付けされるのは理にかなっている。
AI自律型兵器トピックは2位に入った。あなたは愕然とするかもしれない。戦争におけるAIは最高ランクの懸念であるべきではないのか。しかし、繰り返すが、このランキングはおそらく日々の考慮事項を体現している。AI自律型兵器が2位を獲得したことに安心してほしい。トップ5以下ではなかった。最下位にランク付けされなかった。戦争でのAIの使用は確かに顕著な懸念であることは明らかである。
行動を起こすことによるランキング
回答者の行動を起こす意欲に基づくトピックは以下の通りである。
- (1) AIデータセンターによってもたらされる環境被害。
- (2) AIによる偽情報。
- (3) AIシステムに含まれるバイアス。
- (4) AIによって生成される誤情報。
- (5) AI対応の詐欺。
- (6) AIによって制御される自律型兵器。
- (7) AIの使用による監視。
- (8) AIによる雇用の喪失。
- (9) AIへの依存による人間の認知能力の低下。
- (10) AIの結果としての人類絶滅リスク。
- (11) AIコンパニオンへの依存による社会的孤立。
AIデータセンターからの環境被害に関するトピックは、行動を起こす意欲の分類で1位にランクされている。これは理にかなっていると思う。これらの新しいAIデータセンターがすべて過度な量の電力と水を消費するという、ニュースストーリーとソーシャルメディアの騒動が大量にある。さらに、AIデータセンターが汚染物質を排出するか、そうでなければ環境に悪影響を及ぼすという懸念がある。
それは人々が行動を起こす準備ができている可能性が高いトピックである。彼らは間違いなく、現在の存在の過程で他の環境問題に関与したり、おそらく行動を起こしたりしてきた。生態学と環境は1970年代以来、長年の考慮事項である。人々はその問題について知っている。彼らは、環境を修正することに関しては、行動が言葉よりも雄弁であることを認識している。
研究に関する注意事項
調査の結果について読んだり聞いたりするときは、調査がどのように実施されたかを掘り下げることが有用である。異なる調査は異なるアプローチを取り、異なる方法論を使用する。実際、2つの異なる調査は劇的に異なる結果を生み出す可能性がある。これは、各研究がどのように設計され、実施されたかによって起こり得る。
詳細は以下の通りである。これは英国の回答者を対象とした調査だった──これが米国などの他の国にとって代表的であるかどうかを判断する必要がある。そうかもしれないし、そうでないかもしれない。研究者たちは、オンラインで募集された3,467人の参加者を調査した。オンラインの参加者を使用することは、対面で尋ねることと異なるか。異なり得る。一般的にオンラインアクセスを持っている人、およびオンライン調査を完了する時間と意欲を持っている人を考慮する必要がある。
データ収集は2026年1月10日に開始され、目標サンプルサイズに達するまで続いた。調査が行われる時期は違いを生むか。はい、生む。調査が実施された時点で人々の心にあったものを考慮する必要がある。AIについてニュースで何があったか。その時点でのAIの状況はどうだったか。などなど。
ランダム化比較試験(RCT)方法論が利用された。これはこのタイプの研究のゴールドスタンダードと見なされている。AI分析におけるRCTに関する私の記事は、こちらのリンクを参照されたい。実証的処理を受けたグループには、ニュースのような記事または110語の長さのビネット(短い物語)が与えられ、各ビネットは11のトピックの1つをカバーしていた。その後、彼らはAIトピックに関連する質問に答えた。対照群には質問が与えられたが、ビネットは与えられなかった。
ある程度、ビネットの言葉遣いは潜在的なバイアスを提供し、回答者を偏った方向に導く可能性がある。これはビネットを使用することのトレードオフである。RCTを実行することで、対照群がビネットが過度に影響を与えた可能性があるかどうかを明らかにすることが期待される。
全体像
立法者はAIについて考え、新しいAI法と規制に関して何をするつもりかを準備すべきである。評論家たちに過度に重きを置くことには注意が必要だ。同じ意味で、評論家たちが世論に関してダイヤルを動かしていると必ずしも仮定しないでほしい。さらに、人々がAIに関して気にかけていると言うことと、実際に腰を上げて何かをすることの間には重要な区別がある。
アメリカの有名な作家ロバート・A・ハインライン氏はこう述べた。「論理で1人を説得するよりも、偏見に訴えることで1000人を動かす方が早い」。私がこれを持ち出すのは、調査におけるもう1つの重要なポイントが、怒りがAIトピックに関連する不安や恐怖を上回っているように見えたからである。
世論を動かそうとする人々は、恐怖を継続的に狙う(つまり、AIがあなたを殺す、AIがあなたを奴隷にする)のではなく、怒りを利用することに取り組んでいるか、取り組むべきだと思う。同時に、一般市民が、自分たちを動かそうとする組織的な試みが感情的なトリガーを悪用していることに気づき、意識のある一般市民がそのような戦術に抵抗することを願っている。
時が教えてくれるだろうし、統計も教えてくれるだろう。



