研究者によれば、ChatGPTにアクセスすることを選んだ人は、自信が10%高かった。
ナヴは取材で「私にとって最大の学びは、AIが間違っているとき、人はAIがまったくない場合よりも成績が悪くなり、しかも誤答に対する自信が強まってしまう、とわかったことだ」と語る。
私たちは長年、思考を補強するためにテクノロジーを利用してきた。GPSは約束の場所へ導き、電卓は請求額を集計し、検索エンジンは頭に浮かぶほぼあらゆる疑問に答えてくれる。
しかし研究者によれば、「認知の降伏」とは、まったく新しい形で批判的評価を放棄することを意味する。アブジャウデも同意する。
「LLMの誘惑はあまりにも強く、私たちの脳はそれに抵抗したり、責任ある形で消費したりできるようには作られていないと思う」と彼は語る。「批判的思考力を失うことに関する私の最大の恐れは、AIの影響を封じ込めるために必要な批判的思考を、AIそのものに対して向けられなくなることだ」
LLMを支える企業は何を語るのか?
Anthropic、Google、OpenAIは、自社ツールが意思決定や他の批判的思考の様式に与える影響についてコメントを求めたが、直ちには回答しなかった。こうしたシステムを構築する企業は通常、より抑制的な言い回しを用い、過度な依存や人間による監督の必要性に焦点を当てる。
これらのツールが時間の節約になり、正確性と精密性を要する高度に構造化されたタスクを支援しうることは疑いない。研究者たちも、その利点は率直に認めている。
「AIは超知能へのアクセスを与えてくれる」とショーは言う。「しかし教育や医療など、利害が大きい文脈では、それが起きてほしくない場合も多い。そうした文脈で、『認知の降伏』の広がりにどう対抗するのか」
研究者たちは今後、「認知の降伏」という概念をラボの外へ持ち出し、人間の識別力が本質的だとみなされる環境──その境界がどれほど曖昧であれ──で、さらに探究したいと考えている。
「ソフトウェア企業、AI企業がこれにどう反応するか、政策立案者がどう反応するか、教育機関がどう反応するかを見ていくつもりだ」とナヴは語った。
最終的に答えは企業よりも個人に、そして自分の思考のどれだけを自分自身のために保つことを選ぶのかに、より大きく依存するのかもしれない。


