正直さ、ハルシネーション、迎合性
以下は、GPT‑5について私の注意を引いた3点である(前掲のOpenAIブログからの抜粋)。
(1):「事実性の改善に加え、GPT‑5(thinking使用時)は、特に不可能な課題、仕様が不十分な課題、主要ツールが欠けている課題に対して、自身の行為や能力をユーザーにより正直に伝えます」
(2):「GPT‑5は、これまでのモデルに比べてハルシネーション(事実無根の虚構的回答)の発生する可能性が、有意に低くなっています」
(3):「GPT‑5はこれまでのモデルよりも同調性が低く、不要な絵文字の使用も少ないですが、きめの細かい、思慮に富んだフォローアップを行います」
第1と第2の点は、GPT‑5が従来のOpenAIモデルより正直で、ハルシネーションが起きにくいことを示している(「ハルシネーション」は、AIが事実と無関係の虚構の応答を生む現象を指す、AI分野における言葉の不適切な転用でもある)。
AIがこれまで、そして今なお私たちに嘘をつくことがあるという事実にショックを受ける人もいるかもしれない。AIが作り話をする――すなわちAIハルシネーションを起こす――ことは多くの人が聞いたり目撃したりしているはずだ。懸念は、AIハルシネーションが見かけ上もっともらしく、AIが自信と正しさのオーラをまとっているため、人々が虚偽を信じ込み、ときにはその荒唐無稽な主張を受け入れてしまう点にある。
朗報は、GPT‑5が嘘とハルシネーションを抑えるらしいことだ。残念ながら、それがゼロというわけではない。言い換えれば、嘘をつかず、ハルシネーションもしないAIが望ましいのは確かだ。そうなっていく可能性が高まっていると前向きに解釈できるが、重要なのは、依然としてそれが起きているという現実である。
警戒を怠らないことだ。
AGIとASIはどこにあるのか
GPT‑5を存分に試し、OpenAIの最新の生成AIとLLMを楽しむとよい。新機能は豊富で、多くのユーザーは満足するだろう。グラスに上質なワインを注ぎ、対話型AIの絶え間ない進歩を味わえばよい。
湿っぽく聞こえるのは避けたいところだが、華やかな演出と喧噪の中にあっても、AGIには到達しておらず、ASIに至っては近づいてすらいないのは明白だ。この道筋が正しいのかと疑問視する向きもある。AI業界は近視眼的になり、皆が同じ発想に基づく同じ解法に集中しているのかもしれない。最終的にAGIとASIに到達するには、AIの構築方法と必要なアーキテクチャを根本から再考する、既存の枠を超えた発想が求められる可能性がある。
最後は前向きな言葉で締めくくろう。
かつてカール・セーガンは「どこかで、何か信じられないようなものが知られるのを待っている」語った。この言葉はまさに、AGIやASIの達成にも当てはまる。


