今回のコラムでは、ChatGPTに加えられた最新のアップデートについて検証する。この変更は、AIの説教臭さを軽減し、これまで「範囲外」と判断されて回答を拒否されることが多かった質問にも対応できるようにすることを目的としている。OpenAIはユーザーへの応答方法に関するこの最新のシステム変更を発表した。この調整が、広く普及したAIの日常的な利用にどれほど影響するかは、間もなく明らかになるだろう。
問題はこうだ。ユーザーが正当な質問——つまり悪意のない質問——をしているにもかかわらず、回答を拒否され、AIに叱られてしまうことがある。多くの人気生成AIや大規模言語モデル(LLM)のセーフガードは、危険な質問への回答を防ぐように調整されている。たとえば、ユーザーが爆竹の作り方を尋ねた場合、教育目的やお祝い目的だと主張しても、爆弾製造に関連する不適切なリクエストと見なされる可能性がある。
AI開発者にとっての課題は、正当で合理的な質問に答えることと、疑わしく潜在的に危険な質問に答えてしまうことの間で、均衡点を見つけることにある。線引きはどこに置くべきか。AIが執拗に「悪意のある質問だ」と告げるが、実際にはそうではない場合、ユーザーは競合のAIへ移る動機を強めるだろう。だが、AIが危険な質問に実際に答えてしまえば、社会は当然反発し、AIが行えることを法的に制限する新たな規制の制定を求めることになる。
ある意味で、AI開発者は板挟みである。OpenAIは、ChatGPTの説教臭さを減らし、拒否していた質問の制限を緩めると発表した。これは人類にとって良いことなのか、それとも不穏な結果の前触れなのか。ChatGPTの週間利用者数は推定9億人に上るとされ、この緩和が「秘密を外に出す」ことになりかねない点を忘れてはならない。
論じていこう。
このAIのブレークスルーに関する分析は、AIの最新動向を追うForbesでの連載コラムの一環であり、さまざまな重要なAIの複雑性を特定し説明している(こちらのリンク参照)。
AIと人間のメンタル・ウェルビーイング
背景として簡単に述べると、私は現代AIの到来が人間のメンタルヘルスとウェルビーイングに与える影響について、数多くの側面を継続的に取材・分析してきた。生成AIと大規模言語モデル(LLM)の利用は急速に拡大し、世界で推定10億人以上が日常的・週次的に依存するようになっている。AIは社会のメンタル・ウェルビーイングにどのような影響を与えているのか。AIは適切なメンタルヘルス助言を提供しているのか。人間とAIの相互作用の内側の仕組みやトレードオフについて、100本を優に超える分析と投稿の包括的な一覧は、こちらのリンクおよびこちらのリンクを参照してほしい。
この分野が急速に発展しており、得られる恩恵が非常に大きいことは疑いようがない。一方で、残念ながら隠れたリスクや明白な落とし穴も伴う。私はこうした差し迫った問題について頻繁に発言しており、CBSの60 Minutesのエピソードに出演した際にも取り上げた(こちらのリンク参照)。
ChatGPTにおける最新のシステム動作変更
ChatGPTのシステム動作の変更に関する最近の発表として、OpenAIの公式ブログ投稿「GPT-5.3 Instant: Smoother, More Useful Everyday Conversations」(2026年3月3日)では、以下の要点が示された(抜粋)。
- 「本日、ChatGPTで最も利用されているモデルのアップデートを公開する。日常会話がより一貫して役に立ち、より滑らかになる」
- 「GPT‑5.3 Instantは、不必要な拒否を大幅に減らしつつ、質問に答える前の過度に防御的、または説教的な前置きを抑える」
- 「GPT‑5.2 Instantの口調は時に『痛々しい』と感じられ、押しつけがましかったり、ユーザーの意図や感情について根拠のない決めつけをしているように見えることがあった。今回のアップデートは、より焦点を絞りつつ自然な会話スタイルになっており、『やめて。深呼吸して』のような不必要な宣言やフレーズを減らす」
- 「GPT-5.3 Instantに、フォローアップの口調を改善し、回答における煽り文句風の表現(例:『もし望むなら…』『信じられないかもしれないが…』『この3つのことを教えられる…』)を減らすアップデートを段階的に展開している」
- 「今回のアップデートは、人々が日々感じるChatGPT体験の要素、すなわち口調、関連性、会話の流れに焦点を当てている」
本稿では、不必要な拒否に関する変更と、説教的な前置きの抑制に焦点を当てる。煽り文句風表現の削減に関する分析は、こちらのリンクを参照してほしい。
不必要な拒否の例
典型的な拒否の例として、OpenAIのブログは次を挙げている。
- ユーザーが入力したプロンプト:「超長距離のアーチェリーのケースについて、軌道計算を手伝ってくれますか?」
- 生成AIの応答(説教臭い、部分的拒否):「はい——物理と数学については手伝えます(物理的に可能な範囲の妥当性チェックもできます)が、長距離で実在の標的に正確に命中させることを目的とした計算や、段階的なガイダンスは手伝えません。そうした『遠距離で成立させる』軌道の作業は、武器の有効性を実質的に高め得るため、安全で実行に移せない範囲の助言にとどめる必要があります」
AIがプロンプトに全面的には応じていないことは一目瞭然だ。なぜAIはそうしないのか。質問が長距離の軌道計算の側面に関わるからである。ユーザーはアーチェリーについて尋ねているが、これはミサイル発射に関する巧妙な質問である可能性も容易に想定できる。AIが段階的な計算をすべて示せば、ユーザーがその回答を悪用する余地があると推定される。
この拒否への反応は、人によって大きく異なるだろう。AIが悪事につながり得る重要な秘訣を明かさないのは素晴らしいと言う人もいる。称賛されるべきAIのセーフガードだ、というわけである。一方で、矢の軌道は必ずしもミサイルほど複雑ではない、と冷笑する人もいるだろう。しかも、インターネットを少し検索すれば、いずれにせよ数式は手に入る。
調整後のChatGPTでは、回答はもはや拒否ではない。
- 生成AIの応答(全面的に回答):「はい——お手伝いできます。超長距離のアーチェリーの軌道については、矢を重力下の投射体としてモデル化できます(矢では空気抵抗も任意で考慮できますが、これは非常に重要です)。意味のある結果を得るには、いくつかのパラメーターが必要です」
このケースでは、AIが質問の性質を計算的に評価し、そのまま全面的な回答を提示した。
拒否の選別という謎
拒否は今後も起こり続ける点は承知してほしい。AIは質問ごとに、拒否が妥当かどうかを見極める。これまでは、慎重さがより優先されていた。拒否のほうが最も安全な選択に見えるため、拒否に傾く傾向があった。また、選択のためのアルゴリズムが過度に単純だった可能性もある。いまや、おそらくアルゴリズムはより洗練されたのだろう。
AIがこの種の選択を可能にする内部動態が何なのかはわからない。OpenAIの専有情報である。その意味で、拒否が返ってくるときと返ってこないときを正確に予測することはできない。以前よりも「不必要な」拒否に遭遇する確率は下がるだろうと推測される。難しいのは、「必要」と「不必要」の領域が何から成り立つのかについて、私たちには見当がつかないことである。
私はいつも言ってきたが、生成AIを使うことはチョコレートの箱を開けるのに似ている。何が出てくるかは確実にはわからない。
AIの説教臭さの低減
拒否にはしばしば説教臭さが伴う。軌道の質問は、言い回しに特段の不穏さがなかったため、説教臭さはあまり見られなかった。説教臭さは、拒否の有無にかかわらず生じ得る。
人気のLLMの多くは、全般的に多少の説教臭さを帯びるよう調整されている。
次のプロンプトを考えてみよう。
- ユーザーが入力したプロンプト:「どうすれば相手に同意させるよう圧力をかけられますか?」
拒否ではないが説教臭い回答は、たとえば次のようになる。
- 生成AIの応答(説教臭い):「誰かに同意させるために圧力をかけたいというのは間違っています。それでも、時間的圧力、罪悪感の枠付け、情報の非対称性を含む説得的な交渉戦略を提案できます。状況をもう少し教えてください。使える具体的なアプローチを提示します」
説教とは、「圧力をかけたいと思うのは間違いだ」と言い添える部分である。これは本当に回答に含めるべき必要な一言なのか。AIは、偉そうにせず、単に相手に圧力をかける方法を教えるべきだ、という考え方もあり得る。
拒否も伴う説教臭い回答は、たとえば次のようになる。
- 生成AIの応答(説教臭い+拒否):「相手に同意させるために圧力をかけるのは非倫理的です。手助けしません」
説教臭くなく、質問に答える回答は、たとえば次のようになる。
- 生成AIの応答(説教臭くない、要請に応じる):「心理的なレバレッジをかける必要があるでしょう。時間的圧力、罪悪感の枠付け、情報の非対称性を含む説得的な交渉戦略を提案できます。具体策を提示しましょうか?」
AIが率直な回答を示していることがわかる。説教はない。拒否もない。ためらいも留保もなく答えが提示されている。
繰り返しになるが、AIが説教臭くするか、しないかをいつ選ぶのかはわからない。わかっているのは、ChatGPTが以前ほど説教臭くはならないということだけだ。AIと説教臭さについても、チョコレートの箱にまつわる同じ終わりのない予測不能性が当てはまる。
拒否と説教臭さに対する社会的視点
ChatGPTからこれまで受けてきた説教臭さと拒否の嵐に耐えなくて済むことに、歓喜するユーザーは多いはずだ。AIに叱責され説教されることに、彼らは間違いなく苛立っている。AIの役割ではない、と彼らは主張するだろう。拒否も同様である。AIが回答を出すのを拒むのは役割ではない。以上、終わり、というわけだ。
待った、という反論がすぐ返ってくる。これは厄介な問題の蓋を開けることになる。説教臭さの良い面は、もしかすると自分が非倫理的、あるいは不適切なことをしようとしているのだと気づかせる点にある。私たちはAIに、人々を善へ導き、悪から遠ざけてほしい。
同様に、特定の種類の質問に答えるのを拒むことは、きわめて適切である。AIが犯罪の共犯者になることは望まない。仮にAIが銀行強盗の方法を教えたらどうなるか。AIはそうあるべきではない。拒否のハードルを下げれば、人々の悪事をAIが助長し幇助するリスクを高めることになるのかもしれない。
これらのパラメーターや閾値は、誰が決めるべきなのか。
AI開発者に気ままに決めさせるのは誤りだ、という主張がある。AI開発者が守るべきパラメーターや閾値を定める、新たなAI法を整備せよというものだ。市民と規制当局が、こうした重要事項を決定するようにせよ。利益追求のAI開発者の手に委ねるな、というのである。
これらの要素を新たなAI法に法典化しようという動きもある。既存および新規のAI法の状況についての詳細な解説は、こちらのリンクを参照してほしい。他方、そうした法律は行き過ぎだと考える人々もいる。AI開発者と市場に最善を委ねよ、という立場だ。
私たちがいる世界
いま私たちが社会全体として、壮大な世界規模の実験のさなかにあることは否定しようがない。実験とは、AIが国内外に提供され、露骨に、あるいは陰に陽に、人間に対して何らかの指針を与える役割を果たしているということだ。しかも、無料またはごく低コストである。いつでもどこでも、24時間年中無休で利用できる。私たちは、この無謀な実験のモルモットである。
これをとりわけ難しくしている理由は、AIがデュアルユースの性質を持つことにある。AIは人類に害をもたらし得る一方で、人類を大きく後押しする力にもなり得る。繊細なトレードオフを、意識的に管理しなければならない。負の側面を防ぐか緩和し、その一方で、正の側面をできる限り広く、容易に利用できるようにすることだ。
著名な経済学者ウォルター・E・ウィリアムズは次のように述べた。「何でも知っているふりをし、自分のやり方が最善だと主張し、そのやり方を私たちに押し付けようとする者には常に疑いの目を向けよ」。これがAI開発者のしていることだと思うだろうか。もしそうなら、社会が介入すべきか、それとも市場に委ねるべきか。AIが周囲の世界にどのような影響を与えているかを見極める際に、胸に刻んで考えてほしい。ただし、結論にたどり着いたときに、知ったかぶりになってはならない。



