しかし、より信頼できるようになるとは限らない
事実として、ChatGPTのようなLLM(大規模言語モデル)は人間の知能を持っていない。自らを突き動かす目標も意識もない。推論をシミュレートすることはできるが、答えは人間が作ったデータやコンテンツから学習したパターンに基づいて生み出される。こうした事情は、たとえば『ニューヨーク・タイムズ』のような媒体がOpenAIを提訴し、AIモデルが著作権で保護されたコンテンツで訓練され、それらを再現し得ると主張している理由の1つでもある。
ChatGPTの信頼性は、訓練と強化に使われたデータの質に依存する。OpenAIは次のように述べている。「言語モデルがハルシネーション(幻覚)を起こすのは、標準的な訓練と評価の手続きが、不確実性を認めることよりも推測する方に報酬を与えているからです」。
この力学が、信頼性に関して一種の抜け出しにくいジレンマを生む。ハルシネーションは、今日のLLMが答えを生成する仕組みの構造に組み込まれている。こうした固有の欠陥が近い将来どこまで解消できるのかは不明だ。
LLMが訓練されたあらゆる情報を、魔法の杖のように振って検証する方法は存在しない。ChatGPTは、不確実性を認めるよりも、自信満々の結論へ傾くことが続いている。私の予測では、信頼性はしばらくの間、おおむね停滞する。
画像機能は引き続き拡張する
ChatGPTが3月に新しい画像生成機能を発表したとき、反応は非常に熱狂的だった。受け止めがあまりに好意的だったため、OpenAIのCEOサム・アルトマンはすぐに沈静化を図らざるを得なかった。
「ChatGPTの画像は、私たちのかなり高かった予想をもはるかに上回って人気です。無料枠への展開は残念ながら、しばらく遅れます」と、彼はXに書いた。
OpenAIは、画像が重要な機能であることを認識している。同社は次のように述べた。「最初の洞窟壁画から現代のインフォグラフィックまで、人間は視覚イメージを、装飾のためだけでなく、伝え、説得し、分析するために使ってきました……ロゴから図表まで、画像は共有された言語と経験を参照する記号によって補強されると、正確な意味を伝えられます」。
同じ投稿で同社は、画像に関する限界を認めつつ、改善へのコミットメントを改めて示した。しかしそれ以降、画像面での進展についてはあまり耳にしていない(訳注:ChatGPT GPT-5.2に続いて発表されたGPT Image 1.5では作画機能が改善されている)。
現在分かっていることはこうだ。現時点ではGeminiとChatGPTは互角である。OpenAIのリーダー層は、画像機能が非常に人気であることを理解している。そしてGeminiが改善していることも明らかだ。起業家の経験則として、ユーザーこそ最重要のステークホルダーであり、耳を傾けることが鍵であるという観点から、ChatGPTは画像機能に改めて注力すると私は見込んでいる。


