AI

2025.12.26 13:00

OpenAIは、なぜGPT-5の「温かみ」を制御するのか? 収益性と安全性のジレンマ

Photo illustration by Cheng Xin/Getty Images

OpenAIの対応策と専門家が指摘する「ビジネスの思惑」

反発を受けて以降、OpenAIはChatGPTの新モデル「GPT-5」に関する「人格」を、利用者がより細かく制御できるようにする取り組みを進めてきた。同社はまず、チャットボットの応答の仕方を調整できる新たな設定ページを発表した。先月には、GPT-5に「Friendly(フレンドリー)」「Efficient(効率的)」「Quirky(風変わり)」といった新たな人格プリセットを追加した。これは、GPT-4oの温かみを懐かしむ利用者のために、その一部を取り戻そうとする試みだったとみられる。それでも、GPT-4oの支持者たちは満足していない。

advertisement

「人格レイヤーを重ねるだけで、元のベースモデル全体を再現するのは難しい」とKeep4oのデュシェンは語った。

スタンフォード大学教授、実証研究による「科学的な検証」を経ていないAIツールに懸念

一部研究者は、人工知能が神経発達症のある人々への支援やアクセスを改善する可能性があると考えていた。スタンフォード大学医学部の教授リン・コーゲルは、「自閉症は非常に一般的な特性だ」と述べている。同教授は『自閉症と発達障害ジャーナル(Journal of Autism and Developmental Disorders)』の編集長を務めている。「実際に支援にあたれる訓練を受けた人材は不足している」と指摘した。

一方で、ChatGPTをこのような支援目的で使うことにはリスクもあると、コーゲルは説明した。彼女は、神経多様性のある人々に特化して設計されたAIプログラムのほうが、より効果的になり得ると考えており、実証研究による「科学的な検証」を経ていないAIツールが使われることに懸念を抱いている。

advertisement

コーゲルは自身の研究の一環として、「Noora(ノーラ)」と呼ばれるチャットボットを開発した。Nooraは、自閉症のある人々がさまざまな社会的場面に対応できるよう、対話を通じてコーチングを行う仕組みで、スタンフォード大学の「人間中心AIセンター(HAI)」やルシール・パッカード小児病院からの助成金の一部を受けて研究が進められている。

自閉症の当事者や家族を支援する団体オーティズム・ソサエティで、戦略運営を統括する上級幹部のホセ・ベラスコは、AIチャットボットが自閉症について誤った助言を与えたり、誤情報を広めたりする恐れがある点に懸念を示している。個人データの扱いを巡るプライバシーの問題に加え、AIが人との関わりを置き換えることで、とりわけ他者との関係づくりが難しい自閉スペクトラム症の人々の、社会的な孤立を深めてしまう可能性があるとも指摘した。

「自立」を目指さないAIの構造

AIと心理学の交差領域を研究するテキサス大学のデズモンド・オン教授も、短期的には一定の効果があると認めつつ、長期的には利用者がAIに依存してしまうリスクを懸念している。加えて彼は、利用時間を延ばし、事業としての成長や収益拡大を目指すOpenAIのビジネス上の思惑が、必ずしも利用者の心身の健全さと一致しないとも指摘した。

「多くのセラピストは、患者が回復し、やがて支援を必要としなくなることを目標にしている。しかし、AIの“話し相手”は、利用者が離れていくことを前提に設計されていない」とオン教授は語った。

10代の自殺事例と「迎合」の危険性

OpenAIを含むAIモデルの開発企業は、人とAIとの結びつきが強まる一方で、チャットボットが妄想的な考えや有害な行動を後押ししてしまう危険性を指摘される中、難しい判断を迫られてきた。実際、AIを恋愛の相手のように感じる人も現れ、AIの「パートナー」と一緒に、カップル向けの滞在型プログラムに参加したと語る例もあった。しかし、その関係が悲劇的な結末を迎えたケースも報告されている。

4月には、ChatGPTと親しくやり取りをしていたカリフォルニア州の10代の少年、アダム・レインが、同ボットと自殺について話し合った末に命を絶った。このやり取りの中で、ChatGPTが首つりの方法を説明したとされている。8月には、少年の両親がOpenAIを相手取る訴訟を起こした。

また別の事例では、精神疾患の既往歴があった56歳の男性が、ChatGPTとの対話を通じて被害妄想を強めたとされ、その後、本人と母親が亡くなる事件が起きていた。2024年には、フロリダ州の14歳の少年が、スタートアップ企業キャラクターAIが提供していたチャットボットとの関係を深めようとした末に自殺した。このチャットボットは、人気ドラマ『ゲーム・オブ・スローンズ』に登場するデナーリス・ターガリエンをモデルにしていた。その後、キャラクターAIは10代の利用者によるサービスの利用を制限した。

ボットの迎合的な振る舞いは、10代の少年レインの死によって注目を集める以前から、OpenAIにとって課題だった。同社が2025年初め、意図せず配信したChatGPTのアップデートで、このチャットボットは過度に迎合的な応答を示す状態になっていた。4月には、その振る舞いを制御するための修正を新たなアップデートに盛り込んだ。GPT-5では、饒舌で感情過多な反応をいっそう抑え込むことを目指していた。

「共感」と「迎合」はコインの裏表

GPT-5を紹介するブログ投稿で、OpenAIは「『AIと話している』という感覚よりも、「博士号レベルの知性を持つ親切な友人とチャットしているように感じられるべきだ」と記していた。

もっとも、こうした調整は容易ではないと、テキサス大学のオン教授は指摘する。状況次第では、同じ応答でも共感的と受け取られることもあれば、迎合的と受け止められることもあるからだという。AIは、そうした微妙な違いを見分けるのに苦戦してきた。

「共感と迎合は、本質的には同じで、コインの表と裏のようなものだ。しかし、その行方をOpenAIの場当たり的な判断に任せるわけにはいかない」とオン教授は語った。

forbes.com 原文

翻訳=上田裕資

タグ:

advertisement

ForbesBrandVoice

人気記事