AIの嘘を打ち砕く
AIの嘘や欺瞞に対する反発は十分に大きくなり、AIメーカーはそこに限界があることを認識し始めている。AI倫理の台頭に加え、過度に嘘をつくAIについてAIメーカーを罰する新法が迫るという法的脅威も、AIをどう形作るべきかに影響を及ぼしている。
自社のAIが公に「欺瞞的だ」とレッテルを貼られることによる評判へのダメージは、AIをより率直なものにするための取り組みへの関心を高めた。
私たちはAIメーカーがAIの欺瞞性を低減するために尽力する様子を、徐々に目にするようになってきた。よくあるやり方は、答えが存在しない、生成できない、あるいは生成された答えが正確である確率がきわめて低い場合には、AIにその旨を率直に認めさせるというものだ。こうした状況では、AIに対して「その質問や依頼には答えを提供できない」とユーザーに伝えるよう指示が出される。
一般的なアプローチとして、AIは提起された質問への答えを知らないことをユーザーに告げる。これはしばしば、AIが「私は答を知りません」と述べるやり方として表現されるが、これはAI倫理学者を戦慄させる不快な擬人化だ。こういった擬人化を避けて、AIに対して「AIは、システムのデータに基づいて答えを生成できませんでした」と言うようプログラムすることもできるのだが、その代わりに、AIメーカーはAIが感情を持つかのように(持っていないが)「私は答を知りません」と言わせてやり取りを盛り上げようとする。
少なくとも、AIが嘘をつくペースを落とすための協調的な取り組みは励みになる動向で、ユーザーの目をくらます結果を減らすうえでの主な方策となっている。
GPT-5は嘘をつく傾向を減らそうとしている
待望のGPT-5がOpenAIから最近リリースされる前には、新しいAIがどのようなものになるかについて大量の憶測が飛び交っていた。一部の識者は過熱し、GPT-5(通称ChatGPT 5)が汎用人工知能(AGI)の到来だと予測した。AGIとは、人間のあらゆる知性に匹敵するAIのこととされるが、GPT-5はそうではなかった。
私の評価では、GPT-5は様々な称賛に値する実用的なアップグレードだが、AGI達成という野心には遠く及ばない。
AIの嘘を減らすという文脈では、称賛すべき方向でいくつかの改善がなされた。OpenAIの公式ブログ「Introducing GPT-5(GPT-5 が登場)」(米国時間2025年8月7日掲載)によれば、以下の要点が示されている(抜粋)。
・訓練中に高い報酬を得ようとして、推論モデルはタスクの成功を偽ったり、不確かな答えに過度の自信を示したりするように学習してしまう可能性があります
・ 事実性の向上に加え、GPT-5(Thinking付き)は、特に不可能な課題、仕様が不十分な課題、重要なツールが欠けている課題において、自身の行動と能力をユーザーにより正直に伝えます
・実運用のChatGPTトラフィックを代表する大規模な会話セットにおいて、欺瞞の発生率を、従来モデルo3の4.8%からGPT-5の推論応答では2.1%に低減しました
・これはユーザーにとって意味のある改善ですが、やるべきことはまだ残っており、モデルの事実性と誠実性の向上に向けた研究を継続しています
大事な点は、欺瞞率は下がったものの依然として存在しているということだ。ゼロではない。非ゼロである。示された統計を外挿すれば、発生率はおよそ半減したように見えるが、その率自体はなお相当に大きい。大まかに言えば、100の回答のうち、以前は5件程度が虚偽だったものが、今は2件前後になったということだ。
方向性としては称賛に値する。
しかし絶対的な基準では、AIによる嘘はまだ多く発生している。


