AI

2025.09.01 11:30

OpenAI、GPT-5の安全機能が長時間の対話で低下する可能性を認める

Photo Illustration by Algi Febri Sugita/SOPA Images/LightRocket via Getty Images

複数の会話

留意すべきもう1つの要因は、1つの会話自体が長い場合と、1つの話題が複数の独立したチャットにまたがる場合の違いである。

advertisement

説明しよう。

私が生成AIとの会話を始めたと仮定する。会話は延々と続いていく。これは「1つの会話」と見なされる。この会話の長さは「長い」。これは、AIが何か異常がないかを確認しようとする際の1つの情報源のタイプである。

しかし、私が会話を始めては止め、また新しい会話(新しいチャット)を始めるという行為を繰り返したとしよう。毎回、私は銀行の仕組みについて尋ねているかもしれない。重要なのは、それを1つの長い会話の中で行っていないという点だ。私の会話は、それぞれが互いに独立しているように見える。

advertisement

もちろん、私自身は同じ思考の筋道を追い続けていることを自覚している。その意味では、たとえ多数の短い会話に分割されていても、それは事実上「1つの会話」なのである。

初期の生成AIは、複数の会話を横断して文脈を理解するようには作られていなかった。ほとんどのAIは、各会話を独立した「島」として扱うように設計されていた。ユーザーが新しい会話を始めると、すべてがゼロから始まった。人はこの文脈保持能力の欠如に不満を感じることが多かった。AIはまるで記憶喪失になったかのように、毎回話を最初から始めるのである。すでにある話題について話していたとしても、一から説明し直さなければならなかった。これは当惑させ、疲れさせ、非常に苛立たしいものであった。

その結果、一部のAI開発者は、会話をまたいで文脈を保持できるようにLLMを強化した。

複数の独立した会話から問題を検知しようとする試みは、単一の長文形式の会話から検知するよりも困難であることが多く。そして、すでに述べたように、単一の長文形式の会話で問題を見つけることは、短文形式の会話で行うよりも困難なことが多いのだ。

自然言語によるチャットの曖見さの中に、多くの技術的課題が潜んでいる。

次ページ > 誤検知の問題

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事