AI

2025.12.03 09:30

ChatGPT誕生から3年、その間、変わったのは「私たち人間」の方だ

Shutterstock.com

文化では、結果はさらに広範囲に及ぶ。予測的社会は派生的社会になる。それは馴染みのないもの、難しいもの、矛盾するものへの食欲を失う。モデルに挑戦するよりもそれに合わせる方が、直感を育てるよりも外部委託する方が簡単になる。時間とともに、文化は平均で考え、要約で感じ、推奨で希望し始める。

advertisement

そして市民生活では、国の道徳的本能がテストされる場所で、結果は実存的だ。民主主義の強さは、それがどれだけ大声で議論するかではなく、どれだけうまく推論するかによって測定される。AIがその推論の代理になり、合成の便利さが解釈の闘争に取って代わるなら、民主的な心は萎縮する。判断の練習をしていない人々は、彼らが完全に判断をやめることを好む人々から自分自身を守ることができない。

判断が劣化すると、判断に依存するすべてのものがそれとともに劣化する。

私たちの経済、文化、そして民主主義。共有された未来という考え自体。これがAIの物語が知性についてのものではなかった理由だ。それは常に静かに、緊急に判断についてのものだった。

advertisement

ChatGPTの隠れた設定と隠れた価値観

すべての大規模モデルの背後には、広大で、ほとんど見えない機械がある。行動を形作るように設計された報酬信号、それを制約するためのフィルター、そしてシステムが言うことを許可されているか、禁止されているかを決定するガバナンススイッチの層のアライメントトレーニング。これらは難解な技術的詳細ではない。それらは機械のパーソナリティ、それが実行する本能、そしてそれが提示する世界観の限界を形作るレバーだ。

一部のシステムにはすでに、倫理がサーモスタットの設定のようにトグルできるかのように、「良い」行動と「悪い」行動を区別する内部モードが含まれている。それだけでも私たちを一時停止させるべきだ。少なくとも、それは私たちを好奇心旺盛にするべきだ。最高の場合、それは私たちを警戒させるべきだ。

なぜなら、より深い問題は設定が存在するかどうかではなく、誰がそれらを定義するかだからだ。

どの委員会、どのチーム、どの幹部、どの機関が惑星規模で「良い」の意味を決定するのか? 誰が機械が避けるように訓練される「害」のバージョンを選ぶのか? 誰が指導と行き過ぎの間、注意と強制の間、ユーザーが考えるのを助けることとユーザーのために静かに考えることの間の境界を引くのか? これらの質問は哲学的抽象ではない。それらは私たちが構築している世界の足場だ。

私たちは道徳的語彙をコードに委任し始めた、劇的にではなく、悪意を持ってではなく、テクノロジーが常に自分自身を挿入する小さな、摩擦のない方法で。ここにフィルター。そこに抑制された応答。和らげられた判断。言い換えられた警告。押された提案。それぞれは些細に感じる、小さな改善、もう少しの磨き。しかし集合的に、それらは道徳的傾斜、アドバイスのアーキテクチャの傾きを作り出す。そして、これらのシステムは自信を持って、規模で話すため、誰もが共鳴に気づく前に、彼らの好みは人間の行動を通じてエコーし始める。

次ページ > 歴史の中で最も深遠な変革は、自分自身を告知することはない

タグ:

advertisement

ForbesBrandVoice

人気記事