AI

2025.08.31 12:00

ChatGPTの「GPT-5」は正直なAI――それは過大な宣伝で虚構だ

JarTee / Shutterstock.com

JarTee / Shutterstock.com

本稿では、最新の生成AIや大規模言語モデル(LLM)が、今や完全に真実だけを語るようになったとする過剰な期待が招いている虚偽と混乱の広がりを検証する。

advertisement

この状況は、OpenAIによって最近リリースされたGPT-5と、依然として広く使われているサービスとしてのChatGPTによって大いにあおられている。実際のところ、GPT-5は以前よりもいくぶん率直で、嘘をつきにくくするための能力を強化している。それは確かに有用なのだが、AIが厳格に真実だけを語ると誤解してはならない。断じてそうではないのだ。

この問題について論じよう。

嘘をつくAI

念のために言っておくが、AIがあなたに嘘をつく可能性は十分にある。

advertisement

事実として、生成AIはデータのパターン適合をやりすぎて、時として真実ではない答えを返すことがある。多くの人は、AIが嘘をつく可能性を考えるとき、「AIのハルシネーション(幻覚)」のことを思い浮かべるだろう。AIの幻覚とは、現実や真実に根拠のない事実を無からでっち上げることを指す。

しかし、AIには幻覚を生み出す以外にも、別の嘘のつき方がある。

生成AIのもう1つの顕著な傾向は、答えが存在しないように見える場合でも、数理的にどうにか答えを出そうとする点だ。この全体的な傾向は、基本的にはAIメーカーの責任だといえる。AIメーカーは、AIが懸命に回答しようとするよう調整する。なぜか。自社のAIがあなたの質問に答えなければ、あなたは答えてくれる競合AIに乗り換えてしまうと知っているからだ。

その意味で、そこには計算されたリスクがある。AIメーカーは、回答の有効性にかかわらず、可能な限り多くの場面でAIが答えを返すようにAIを仕向ける。ユーザーは答えを得られたことで満足するかもしれない。もし答えが間違っていたとしても、運の悪いユーザーはそれに気づかないかもしれない。AIは誇張と虚勢でお咎めなしに逃げおおせる。ユーザーもまた、間違った答えをAIの気まぐれだと肩をすくめて受け流すかもしれないのだ。

要するに、AIに嘘をつかせるよう仕向けるという醜い副作用は、AIが常に(あるいはほぼ常に)答えを返すという魅力的な利点によって相殺される。AIメーカーは、自社のAIに何をさせたいのかを事前に意識的に決めなければならない。そこには繊細なバランスが生じる。嘘をつき欺くAIにしてユーザーの忠誠心と収益を得るのか、それともユーザーに虚偽を伝えることへの懸念を優先するのか、というバランスだ。

次ページ > 嘘への対応

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事