最初は記憶だった。誕生日、電話番号、方向、かつて私たちが世界で自分自身を方向付けていた小さな事実の星座。次にナビゲーションだった。私たちは自分自身の本能よりも青い線を信頼することを学び、霧、建設区域、そして時には直接不条理の中にそれに従った。人々はGPSがそう言ったからという理由で湖に車を運転した。彼らは閉鎖された橋、通行不能な道路、機能する文脈感覚を持つ誰も進んで行かない場所で立ち往生しているのを発見した。それは彼らが愚かだったからではなく、機械が意識よりも服従を簡単に感じさせたからだ。
次に計画が来た。自分自身を再配置するカレンダー。私たちにいつ眠るか、運動するか、水分を摂るか、投資するか、買うか、投稿するか、返信するか、休むかを教えるアルゴリズム。私たちは私たちの生活の振り付けを外部委託し始め、パターン認識エンジンを静かな経験の知性よりも信頼している。これらのシステムは単に私たちを支援するのではない。それらはかつて私たちが予測し、優先順位を付け、決定することを可能にした筋肉そのものを置き換える。
これらの失敗のどれも、間違った方向転換、見逃された文脈、盲目的信頼は実存的ではなかった。それらは恥ずかしく、時には危険で、そして多くの場合啓示的だった。それらは、あなたが知覚的権威の過度に手放すとき、あなたは方向だけでなく、方向が間違っているときにそれを感じる能力も失うことを私たちに教えた。
今、同じダイナミクスを想像してみてください、しかし道徳的推論と共に。
それが私たちが近づいている変曲点だ。AIが賢いからではなく、それが利用可能だからだ。人間が弱いからではなく、便利さが確信を侵食するからだ。機械が権威を要求するからではなく、私たちがすばやく自信を持って答えるものに権威を手渡すからだ。
道徳的推論は遅く、不快で、しばしば曖昧だ。それは競合する真実と格闘し、不確実性の中に座り、結果に責任を取ることを要求する。それはあなたに何かを求める。注意、共感、判断、勇気。AIは対照的に、ショートカットを提供する。それは反省のコストなしに明確さの幻想を提供する。それは良心の負担なしに結論を提供する。
そして一度人々がその闘争を外部委託できることを学ぶと、一度彼らが道徳的なオートパイロットの容易さを発見すると、彼らはそうするだろう。悪意を持ってまたは劇的にではなく、単にそれが効率的に感じるからだ。
- 記憶を外部委託する世界は忘れっぽくなる
- ナビゲーションを外部委託する世界は方向感覚を失う
- 計画を外部委託する世界は受動的になる
- 道徳的推論を外部委託する世界は係留を失う
それが次の3年間の真の危機だ。人工知能ではなく、人工的な確信、人間の判断の静かで漸進的な機械生成の確実性による置き換えだ。AIが何が正しいか間違っているかを決定することではなく、人々が自分自身で決定する方法を覚えていることをやめることが危険なのだそしてそれが起こると、意味そのものが交渉可能になる。なぜなら、意味を保護するもの、善を理解するための人間の闘争が委任されてしまったからだ。
今、私たちに直面している問題はAIが道徳的推論が可能かどうかではない。問題は私たちがそれを実践し続けるかどうかだ。


