AI

2025.08.31 12:00

ChatGPTの「GPT-5」は正直なAI――それは過大な宣伝で虚構だ

JarTee / Shutterstock.com

誇張された「正直さ」

AIの正直さが高まったというメディアの反応は、やや行き過ぎだ。

advertisement

一部は、最新のAIが真実の語り手であると誤解を招く形で喧伝している。これは事の本質を曖昧にする。AIが嘘をつく可能性が低くなった、という主張であれば理解できる。だが真実は、嘘が根絶されたわけではない。嘘は依然として選択肢としてテーブルの上にある。

ある種の皮肉だが、AIがいくぶん正直になったことには悪い面もある。奇妙に聞こえるかもしれないが、AIがより正直で嘘をつきにくくなることに、どうして欠点があり得るのか。

大きな懸念は、人々が警戒を解いてしまうことだ。

advertisement

つまりこういうことだ。あなたは以前からAIを使っていて、ときにはAIが嘘をつくことを承知していたとする。その場合は常に危機察知能力を働かせるだろう。AIのすべての応答を慎重な目で見て常に警戒し、AIのすべての返答に意識的に懐疑的であろうとする。

時が経ち、AIは改善された。嘘をつく頻度は減った。あなたは嘘を目にすることが徐々にまれになっていく。新たな習慣は、あなたが油断してしまうことだ。警戒するのではなく、警戒を解いてしまうのだ。

この現象は、メディア報道によってさらに煽られると私は考える。あなた自身の使用経験で嘘に出くわす頻度が減ったことに加え、メディアが現代のAIは「正直エイブ(リンカーン大統領の愛称)」のごとく信頼できると鳴り物入りで伝える。

AIが今や信頼できる相棒であり、その答を見直しや反論なしに受け入れてよいのだと二重に信じ込まされてしまうのだ。

利用者がすべきこと

結論としては、生成AIを使う際は常に警戒を怠ってはならない。

AIが質問に答えを返してきたら、その内容を必ず検証すること。

・答は筋が通っていて論理的か

・その答を裏づける他の情報源はあるか

・質問の言い回しを変えてもう1度尋ね、同じ答えが出るか確かめたか

・AIに嘘をつかないよう伝えたか(これは多少は助けになるが、万能の解決策ではない)

・その答えはあなたにとって重要か、それとも大した重みはないものか(重要ならばコストをかけても検証する)

別の生成AIに同じ質問を投げるのも一案だ。そうすれば異なる答えが返ってきて、一方が嘘をつき、他方が真実である可能性に気づけるかもしれない。余談だが、人気のAIの多くは同じまたは類似のデータを走査しパターンマッチングしているため、しばしば同じ答えを返す点には注意が必要だ。

類は友を呼び、同じ誤答をそろって生み出す可能性があるのだ。

次ページ > AIに率直さを求めること

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事