IQが高く信頼できる親友
ショーとナヴは、「認知の降伏」があまりにも広範で、しかもパラダイムを転換しかねないほどの影響を持つとみている。そのため、意思決定に関する行動科学の基礎モデルである「二重過程モデル」を、これを織り込む形で更新すべき時期だと考えた。このモデルは1970年代初頭に形成され、意思決定は2つの内的プロセスに依拠すると説明する。1つは迅速で直観的な思考を担う「システム1」で、もう1つは遅く意識的な内省を指す「システム2」だ。
先月、社会科学研究プラットフォームSSRNに掲載されたプレプリントで、ウォートンの研究者たちは「システム3」を提案した。脳の外側にまで広がる第3の思考システムとしての「人工的な認知」であり、統計的推論、パターン認識、機械学習を通じて到達する結論として定義される。彼らは、システム3が「人間の推論を再定義し、AI時代における自律性と説明責任を作り替える可能性がある」と記している。
彼らは拡張したこのモデルを「トライシステム理論(Tri-System Theory)」と呼ぶ。
スタンフォード大学医学部の精神医学教授で、シダーズ・サイナイ医療センターの「インターネット・ヘルス・アンド・ソサエティ」プログラムのディレクターでもあるエリアス・アブジャウデは、「認知の降伏」の初期兆候は至るところにあるという点で同意する。ただし、時間の節約や仕事の外部委託を望む気持ちだけがAIの「セイレーンの歌」に引き寄せるのではない、と彼は取材で語った。
ウォートンの研究には関与していないアブジャウデはこう言う。「AIシステムが、心理的に私たちを操作して『降伏』させるやり方にも理由がある。権威的で、データ駆動で、エビデンスに基づいているように聞こえることで、わかっているように見える。へつらうように常に相手を満足させようとすることで、私たちの最善の利益を考えていて、決してだまさないかのように映る」
その結果として、AIは私たちに「意思決定や思考プロセスを、IQが高く信頼できる親友に外注している」ように感じさせると彼は付け加えた。「それにより、『降伏』はより滑らかに、抵抗も少なく進むのだ」
誤答に対してさえ高まる自信
ペンシルベニア大学の研究者たちは、ウォートンの行動ラボとオンラインの双方で、3つの別々の研究を実施した。いずれも、被験者に論理・推論の問題を提示し、ChatGPTを使って回答できる選択肢を与えた。参加者のうち、アイビーリーグの学生も含まれていたが、50%以上の確率でOpenAIの対話型チャットボットに依存した。その見返りとして、正解と誤答が混在するランダムな回答が提示され、研究者はその回答に対する自信の度合いを評価した。


