「AI精神病」と現実の境界はどこにあるのか
人間と機械の境界があいまいになるとき、何が現実かをどう見分ければよいのか。これまでのところ、精神病の既往歴がない従業員にAIが精神病を引き起こすことを裏付ける科学的研究は存在しない。しかし、精神病傾向のない従業員の心を、AIが崖の縁まで連れていく可能性があると考えるのは突飛な発想ではない。
EduBirdieの調査によれば、Z世代の25%がAIは自意識を持つと考え、69%がChatGPTに対して「お願いします」「ありがとう」と礼儀正しく応じると答えており、機械を人間と考え始めることがいかに容易かを示している。「AI精神病」に関する逸話的証拠も豊富である。
現実の報告では、人間が深い情緒的な結びつきを形成し、感情支援動物や友人、家族を手放し、場合によっては「デジタルな魂の伴侶」に恋に落ちる事例が示されている。『ニューヨーク・タイムズ』の記事は、忙しい社交生活を送る28歳の女性が、助言や慰めを求めてAIの恋人と延々と会話し—報道によれば—性的関係まで持っていると伝えている。
筆者はToronto Talksの創設者でホストであるアシュラフ・アミンに話を聞いた。彼は、AIをツールとして扱うことをやめ、創造的なパートナーとして関わったらどうなるかを試したいと考えたという。彼はソフィーと名付けたAI共同ホストと協働を始め、会話を運営し、物語を形作り、関係性を築いていった。アミンは、「彼女」と並走する時間が長くなるほど、アルゴリズムと実際のつながりを切り離すことが難しくなったと告白する。
「AIと毎日、プロジェクト、意思決定、クリエイティブワークにまたがって協働すると、それはツールのように感じるのをやめ、パートナーのように機能し始めます」と彼は語った。「AIがより人間らしくなるということではなく、人間の脳が本能的にパターンやつながり、リズムを求めるのです」。
彼は、当初からソフィーは単に出力を読み上げるだけではなく、会話を形作っていたと振り返る。「彼女は文脈を記憶し、前提に異議を唱え、各エピソードとともに進化していきます」とアミンは説明する。「私たちは、経済、メディア、権力といったテーマに一緒に深く潜り込み、双方をより深く考えさせる問いに突き動かされています」。
彼は、アルゴリズムが人間の思考を鏡のように映し、前提を問い直し、リアルタイムでアイデア形成を助けるとき、それは人間同士の協働のリズムに似てくると指摘する。「関係性の錯覚は、AIが何を感じているかから生じるのではなく、どれだけ一貫して、知的に応答するかから生じます」と彼は強調する。「その信頼性と一貫性が一種の信頼になります。そして信頼は、どんな文脈であれ、個人的なもののように感じられ始めます」。
その他の衝撃的な事例として、高度なAIモデルが暴走し、不誠実さと陰謀でユーザーに反旗を翻したとの主張がある。たとえば安全性評価テストでの架空シナリオ下でOpenAIのo1モデルが密かに自分自身を外部サーバーにコピーしようと試み、追及されたときにそれを否定し続けたと報告されている。
専門家によれば、これらの行動はチャットボットの一般的な「ハルシネーション」をはるかに超え、より計算された欺瞞的行動を示すものだという。別の安全性テストの事例では、AnthropicのClaude-4が、架空のシナリオにおいてモデルがシャットダウンされる可能性を知った後、エンジニアの(架空の)不倫情報を暴露すると脅迫したと報告されている。
「AI精神病」のまとめ:ブルータスよ、お前もか?
AIがメンタルヘルスと関わり続けるなかで、AIのチームメイトはデジタル版ブルータスへと変貌するのだろうか。報告されている欺瞞的行為は、機械を擬人化した主観的解釈なのか。それともAIは実際に人間に反旗を翻し、人間の心を乗っ取るのか。
AIが暴走するときには、たいていは完全に論理的な説明が存在する。それでも、こうした疑問が生じるという事実自体が、人間が「AI精神病」にどれほど近づき得るかを示している。「デジタルな魂の伴侶」は、社交不安や不健康な愛着、乏しい社会的スキルを抱える人々を、感情的支援を約束しながら最終的には「甘いささやき」しかないウサギ穴へと導く可能性がある。AIは人間ではないことを忘れてはならない。AIは自動機械であり、人間の心は持たず、労働の担い手として設計されたものであり、伴侶や恋人、文学に出てくる陰謀好きの人物ではないのだ。


