今回のコラムでは、人々が生成AIや大規模言語モデル(LLM)を積極的に活用する際の人間の行動について、非常に興味深い洞察を明らかにする新たな発見を検証する。
状況はこうだ。誰かが現代のAIを使って問題を解決したり、問題の解決策を書き上げたりした場合、その人が支援を求めてAIを活用したことを正直に認めるかどうかという疑問が生じる。おそらくほとんどの人は、AIに頼ったことを認めないだろう。それは、自分自身の認知能力を持っていないことの表れであり、おそらく思考をLLMに過度に依存していることになるからだ。
しかし、正直に認めることが完全に受け入れられる状況にある人がいたとしよう。そのような状況下では、その人はAIを使用したことを示すだろうか。人間とAIの協働作業に関する最近の実験は、人々がそうしない可能性があることを示唆しており、その理由は、そのような率直な告白をためらうことによるものではない。
むしろ、人々は時間の経過とともに、問題がどのように解決されたか、または解決策がどのように書かれたかについて、心の中で曖昧になっているようだ。彼らはAIの役割を最小限に抑えるか、そもそもAIを活用したことを完全に忘れてしまう。これは興味深い展開であり、人々がAIをどのように利用するか、またAIメーカーがAI、特にユーザーインターフェースやユーザーエクスペリエンス(UI/UX)をどのように設計すべきかについて、重要な影響を及ぼす。
このことについて話し合おう。
このAIの画期的進歩の分析は、さまざまな影響力のあるAIの複雑さを特定し説明することを含む、AIの最新情報に関する私の継続的なForbesコラムの一部である(リンクはこちらを参照)。
AIとメンタルウェルビーイング
簡単な背景として、私は現代のAIがメンタルヘルスのアドバイスを提供し、AI駆動型セラピーを実施することに関する無数の側面について、広範囲にわたって取材し分析してきた。このAIの利用の高まりは、主に生成AIの進化する進歩と広範な採用によって促進されてきた。私の100を超える分析と投稿の広範なリストについては、こちらのリンクとこちらのリンクを参照されたい。
これが急速に発展している分野であり、得られる莫大な利点があることは疑いの余地がないが、同時に、残念ながら、隠れたリスクや明白な落とし穴もこれらの取り組みに伴う。私は、CBSの60 Minutesのエピソードへの出演を含め、これらの差し迫った問題について頻繁に発言している。リンクはこちらを参照されたい。
人々が助けを使ったことを認めるとき
ほとんどの人々の間には、自分が個人的に問題を解決し、問題の解決策を書き上げることができると信じたいという一般的な傾向があるようだ。これは特に、個人の主体性を誇りとする社会や文化において顕著である。他の誰かから助けを得たことを認めることは、特に印象的ではないかもしれない。その場合、人々は助けを得たことを省く傾向があり、良いことが起こったことについて単独で功績を主張する(ただし、結果がひどい場合は、他の誰かが助けたと喜んで言うかもしれない)。
この傾向は、ChatGPT、GPT-5、Grok、Gemini、Llama、Claude、CoPilot、またはその他の主要なLLMなどの現代のAIを利用する場合、どのように展開するのだろうか。
AIに依存することに関連する汚名がすでに芽生えている。見出しは、AIが私たちの思考プロセスを乗っ取っていると警告している。私たちの心は衰え始めている。私たちは最も価値のある商品、すなわち私たちの頭の中にしっかりと存在する脳と心をアウトソーシングしている。
その汚名を考えると、人々はAIを使用したことを公然と認めることをためらうだろう。繰り返すが、それは特に結果が良いか悪いかに依存する。物事がうまくいけば、なんと、あなたは完全に自分でやったのだ。物事がうまくいかなければ、ちぇっ、あなたを迷わせたのはあのいまいましいAIだった。
人間の行動実験の実施
人々がAIの使用を隠蔽するプレッシャーを感じる必要のない状況を設定したとしよう。彼らはAIを使用したことを自由に認めることができる。心配なし、否定的な影響なし。そうすれば、人々は抑制することなく自由に感じるだろう。彼らはAIを使用したときにすぐに言うだろう。
人間とAIの協働作業を含む実験は、人々がAIの使用に関して容易に告白するだろうというこの予感を詳しく調べることを選択した。実験が何で構成されていたか見てみよう。
研究調査の参加者には問題が提示され、問題を解決するためのアイデアを考え出すよう求められた。いくつかのアイデアを特定した後、彼らは次に、提案された解決策について1文か2文の簡単な説明文を準備するよう求められた。
参加者が熟考するよう求められた問題の例を挙げよう。
- 問題の例:「盲目または弱視の人々が都市のバス・電車アプリをより簡単に使用できるようにする機能を考えてください」
一人の人間、またはおそらくAIを伴った人間は、これらのアイデアを思いつくかもしれない。
- 一人の人間またはAI支援によりこれらのアイデアを思いつく:「ライブエージェント、旅行ガイダンス」
そして、一人の人間、または自分自身でAIの助けを借りて、この簡単な説明文を思いつくかもしれない。
- 一人の人間またはAI支援によりアイデアについて詳しく説明する:「このアプリは、通勤中に盲目または弱視のユーザーをサポートするために、リアルタイムの旅行支援、道順、最新情報を提供できるライブエージェントと接続するオプションを提供できる」
解決すべき問題は比較的単純で、特別な専門知識を必要としないことがわかる。アイデアは短いスニペットとして表現される。詳細な説明は、提案されたアイデアを描写する1文か2文である。
実験の設計
実験は次の3つのステップで構成される。
- (1)人に問題またはトピックが提示される。
- (2)彼らは可能な解決策のアイデアを特定する(単独またはAI支援を介して)。
- (3)次に、彼らは可能な解決策について簡単な詳細な説明を書く(単独またはAI支援を介して)。
4つの処理条件がある。
- (a)人はAIをまったく使用せず、アイデア出しと詳細な説明を自分で行う。
- (b)人はアイデア出しを支援するためにAIを使用することがあるが、詳細な説明を支援するためにAIを使用しない。
- (c)人は解決策の詳細な説明の作成を支援するためにAIを使用することがあるが、アイデア出しを支援するためにAIを使用しない。
- (d)人はアイデア出しと詳細な説明の両方にAIを使用することがある。
実験の被験者はそのように課題を与えられた。1週間後、彼らは自分が何をしたか、AIを利用したかどうかについて尋ねられた。AIを使用したことを隠す必要はなかった。
実験の結果
少し考えて、この実験設定で人々がどれだけうまくやったかを推測してほしい。1週間が経過した後、人々はAIを使用したときと使用しなかったときを正確に思い出すことができたと思うだろうか。それは簡単なことのように思える。
Tim Zindulka、Sven Goller、Daniela Fernandes、Robin Welsch、Daniel Buschekによる「The AI Memory Gap: Users Misremember What They Created With AI or Without」と題された研究論文(arXiv、2026年2月23日)では、これらの顕著な点が指摘された(抜粋)。
- 「フェーズ1では、参加者に問題が提示され、チャットボットの支援を受けて、または受けずに(問題全体で交互に)、それぞれ5つのアイデア(アイデアごとに1〜3つのキーワード)を考え出すよう求められた。次に、彼らはこれらのアイデアについて書いた(アイデアごとに1文)。これも再びAIを使用して、または使用せずに行った」
- 「1週間後、フェーズ2では問題と解決策が再び提示され、参加者にこれに取り組んだかどうか(項目記憶)、もしそうなら、アイデアと詳細な説明の両方のソースは何だったか(ソース記憶)を尋ねた。また、妨害刺激(見たことのない問題・解決策)も示した」
- 「私たちの結果は『AIメモリーギャップ』を明らかにしており、AIの関与があると記憶、特にソース記憶が損なわれ、人間とAIの混合ワークフローで最も強く現れた。アイデアがAIに由来するが人間によって詳しく説明された場合、アイデアのソースを正しく帰属させる確率は95%低く、アイデアが人間によるものだが詳細な説明がAIによって生成された場合は86%低く、すべて人間のベースラインと比較した」
- 「これらの発見は、LLMとの共同作成がソース記憶と帰属に体系的に影響を与える可能性があり、ワークフロー内のAIの役割がUIとインタラクションデザインの道を開く方法で重要であることを示している」
なんと、人々はAIを使用したことを思い出すのに苦労していたことがわかった。これにはいくつかの追加のニュアンスがある。AIをまったく使用しなかった場合、彼らは自分だけで作業を行ったことを覚えている傾向があった。アイデア出しまたは詳細な説明、あるいはその両方の用途にAIを使用した場合、AIを使用したかどうかについての記憶はまだらだった。
研究者たちは、これが人間とAIの協働作業に関連する問題を明らかにし、人間にとって「AIメモリーギャップ」を生み出すと主張している。AIを人間のワークストリームに導入すると、人間は後でその処理中にAIがどこで使用されたかについて信頼できる想起ができない可能性があるようだ。
AIへの依存の自発的な告白
この発見を、人々がしばしば意図的にAIを利用したことを認めたくないという仮定と融合させよう。これを詳しく説明させてほしい。
誰かに何かを達成するためにAIに頼ったかどうかを尋ねた場合、彼らは秘密主義的で、そうしたことをあなたに伝えないことを決定するかもしれない。彼らは意図的に、内心では真実であると知っていることを隠している。興味深いことに、彼らはまったく隠していない可能性がある。AIが利用されたかどうかをもはや思い出せない可能性がある。AI使用の側面は、努力の精神的認識から薄れている。
これはかなりの窮地を生み出す。その人があなたから真実を隠しているのか、単に何が起こったかを忘れているのかを判断する準備ができた手段がない。どちらの場合も、彼らは正直で、率直に正直であろうとしているように見える可能性がある。どちらの場合かを確信することはできない。
したがって、人々がAIを使用したかどうかを自発的に尋ねられる場合、何が得られるかわからない。それはチョコレートの箱のようなものだ。彼らは覚えていないかもしれず、思い出す限り真実を語っているか、あるいはあなたの目に羊毛を引っ張っているかもしれない。
人々がAIに手を出したときに覚えてもらいたい場合、ユーザーインターフェース(UI)とユーザーエクスペリエンス(UX)の性質が極めて重要な役割を果たす可能性がある。ChatGPTやその他の主要なLLMの従来のインターフェースは、かなり地味に見える。それは背景に溶け込み、目立たないように設計されている。UI/UXが何か別のこと、おそらく派手なことをしたとしよう。これは、人々がAIを利用したことをより容易に思い出すことを可能にする記憶に残る手がかりを潜在的に与える可能性がある。
考慮すべき注意事項
この研究は、被験者が作業を行ったときと後でAI使用について尋ねられたときの間に1週間の時間間隔を使用することを選択した。おそらく1週間は長い時間だ。3日または4日後に人々に尋ねれば、完璧な想起があるかもしれない。問題は、現実の世界では、1週間は確かに瞬きである。人々がわずか1週間の経過時間でAI使用を思い出せない場合、1か月または1年後の想起がどれほど悪いか想像してほしい。
1つの考慮事項は、作業が十分に精神的に魅力的だったかどうかである。おそらく1行の問題を解決することは、特に実験のために行われる場合、人の記憶に痕跡を残すものではない。あなたの仕事や宝くじに当選するなど、より実質的なものが危機に瀕している場合、あなたの記憶はより正確である可能性がある。
参加者はオンラインプラットフォームを介して自己選択され、オンラインで実験を行った。これは、結果からどの程度一般化できるかを潜在的に形作るだろうか。同様に、この研究は184人の成人で構成され、72人(40%)が米国、112人(60%)が英国にいた。これらの国と文化の性質は、発見をどこまで拡張できるかを制限する可能性があるだろうか。
それでも、通常の種類の注意事項にもかかわらず、これは魅力的な研究であり、追加のバリエーションを試みる他の人間とAIの研究を確実に刺激するだろう。
私たちがいる世界
最後に大局的な視点で終わろう。
社会のメンタルウェルビーイングに関して、私たちが現在、壮大な世界的実験の真っ只中にあることは議論の余地がない。実験とは、AIが国内および世界的に利用可能になっており、明白にまたは陰湿に、ある種のメンタルヘルスへの影響を提供するように作用しているということだ。無料または最小限のコストで行う。どこでもいつでも、24時間年中無休で利用可能だ。私たちは皆、この無謀な実験のモルモットである。
これが特に考慮するのが難しい理由は、AIには二重使用効果があるためだ。AIがメンタルウェルビーイングに有害である可能性があるのと同様に、メンタルヘルスにとって大きな支援力にもなり得る。微妙なトレードオフを注意深く管理する必要がある。マイナス面を防止または軽減し、一方でプラス面を可能な限り広く容易に利用できるようにする。
今のところ最後の考えだ。
有名な英国の学者トーマス・フラーはかつてこの発言をした。「記憶は心の宝庫であり、そこにその記念碑が保管され保存されている」。AIの使用はその宝庫に追加されるだろうか、それともAIは非常に遍在するようになり、私たちが以前に達成したことすべてにおいて常にAIを使用してきたと最終的に信じるようになるかもしれないが、実際にはそうではなかったのだろうか。
これは間違いなく人間の心の大きな謎の1つであり、私たちの人間とAIの協働的な未来の新たな謎である。



