AI

2026.03.29 18:00

人間は自分の脳より「AIを信頼」してしまう、最新研究

Shutterstock.com

IQが高く信頼できる親友

ショーとナヴは、「認知の降伏」があまりにも広範で、しかもパラダイムを転換しかねないほどの影響を持つとみている。そのため、意思決定に関する行動科学の基礎モデルである「二重過程モデル」を、これを織り込む形で更新すべき時期だと考えた。このモデルは1970年代初頭に形成され、意思決定は2つの内的プロセスに依拠すると説明する。1つは迅速で直観的な思考を担う「システム1」で、もう1つは遅く意識的な内省を指す「システム2」だ。

advertisement

先月、社会科学研究プラットフォームSSRNに掲載されたプレプリントで、ウォートンの研究者たちは「システム3」を提案した。脳の外側にまで広がる第3の思考システムとしての「人工的な認知」であり、統計的推論、パターン認識、機械学習を通じて到達する結論として定義される。彼らは、システム3が「人間の推論を再定義し、AI時代における自律性と説明責任を作り替える可能性がある」と記している。

彼らは拡張したこのモデルを「トライシステム理論(Tri-System Theory)」と呼ぶ。

スタンフォード大学医学部の精神医学教授で、シダーズ・サイナイ医療センターの「インターネット・ヘルス・アンド・ソサエティ」プログラムのディレクターでもあるエリアス・アブジャウデは、「認知の降伏」の初期兆候は至るところにあるという点で同意する。ただし、時間の節約や仕事の外部委託を望む気持ちだけがAIの「セイレーンの歌」に引き寄せるのではない、と彼は取材で語った。

advertisement

ウォートンの研究には関与していないアブジャウデはこう言う。「AIシステムが、心理的に私たちを操作して『降伏』させるやり方にも理由がある。権威的で、データ駆動で、エビデンスに基づいているように聞こえることで、わかっているように見える。へつらうように常に相手を満足させようとすることで、私たちの最善の利益を考えていて、決してだまさないかのように映る」

その結果として、AIは私たちに「意思決定や思考プロセスを、IQが高く信頼できる親友に外注している」ように感じさせると彼は付け加えた。「それにより、『降伏』はより滑らかに、抵抗も少なく進むのだ」

誤答に対してさえ高まる自信

ペンシルベニア大学の研究者たちは、ウォートンの行動ラボとオンラインの双方で、3つの別々の研究を実施した。いずれも、被験者に論理・推論の問題を提示し、ChatGPTを使って回答できる選択肢を与えた。参加者のうち、アイビーリーグの学生も含まれていたが、50%以上の確率でOpenAIの対話型チャットボットに依存した。その見返りとして、正解と誤答が混在するランダムな回答が提示され、研究者はその回答に対する自信の度合いを評価した。

次ページ > LLMの誘惑はあまりにも強く、私たちの脳は抵抗するようには作られていない

タグ:

advertisement

ForbesBrandVoice

人気記事