私たちはすべてのものの均質化へと漂流している。洞察と発見が同じ予測エンジンから始まるとき、世界は同じ選択に収束する。私たちは同じものを買い、同じスタイルを身に着け、同じ調子で話し、同じ部屋を飾り、同じ決断に落ち着くだろう。すべての人が文字通り同一になるという意味ではなく、許容可能な違いの空間がモデルが「安全」で「分別ある」と考えるものの周りに狭まるという意味だ。趣味はトレーニングデータの派生物になる。行動は予測の表現になる。アイデンティティは事前選択されたデフォルトのコレクションになる。
これがChatGPTが静かに商業を自動化する「自動」を入れる方法だ。私たちは単にワークフローを自動化しているのではない。私たちは世界観を自動化している。
私たちは発見、趣味、好み、選択、そしてアイデンティティさえも、私たちが到着する前に事前計算されるマーケットプレイスを構築している。それが起こると、ビジネス戦略は説得についてではなく、アルゴリズム的なコンプライアンスについてのものになる。勝者はもはや最も発明的または最も説得力のある者ではない。彼らはモデルがすでに真実だと信じている潜在的な仮定に最も整然と対応する者だ。
商業は閉じたループになり、私たちはそのループの著者ではなく、オペレーターになる。危険は経済的なものだけでなく、認知的、文化的、民主的なものでもある。熟考は趣味が形成され、価値観が形を取り、アイデンティティが固まり、判断力が成熟し、市場が現れ、民主主義が生き残る場所だ。熟考が崩壊すると、それらすべてのものが平坦化する。検索は乱雑で非効率的だったが、それは人間的だった。AIはエレガントで摩擦がなく、速度のために最適化されている。しかし、摩擦のないシステムは摩擦のない人々を生み出す。
そして摩擦のない社会は便利さ以上のものを放棄する。それは自分が何になるかを選ぶ能力を放棄する。
ChatGPT、データの劣化から判断の劣化へ
私が働くすべての企業が同じ不快な真実を発見している。これらのシステムから生まれる判断の質は、その下にあるデータの質と切り離せない。データは劣化する。予測はドリフトする。モデルはその腐敗をあたかもそれが信号であるかのように吸収する。悪い入力は歪んだ予測に変換され、それらの歪んだ予測は正規化された答えに硬化し、正規化された答えは静かに機関の決定になる。やがて、未来は過去の確率的な幽霊によって操縦されるようになる。
次の時代の勝者は最大のモデルを持つ企業ではない。それらは「出所、同意、データの完全性がモデルが触れるすべての決定の背骨を形成する」真実のアーキテクチャを持つ企業だろう。しかし、これはもはや企業の問題だけではない。それは社会的な問題だ。真実のインフラは判断のインフラになりつつあり、それが侵食されると、その上に乗るすべてのものが移動し始める。


