(2)ChatGPTの「保存されたメモリ」機能を使っても指示を無視する理由
私は、好みを保存できるChatGPTの「保存されたメモリ」機能を使えば問題は解決できると思っていた。だが、なぜそれだけでは問題が解決しないのだろうか。
ChatGPTの回答:「保存されたメモリ」機能は一定の一貫性を保つのに役立ちますが、人間の記憶と同じではありません。メモリはシステムが参照できるメモのように機能するもので、常に適用されるルールではありません。もしリクエストが学習時に形成された強いパターンに逆らう場合、AIは元のパターンに戻ってしまうことがあります。「保存されたメモリ」機能は今でも開発途上であり、改善されたとしても、AIが最も多く見てきたパターンと競合する文脈では、ユーザーが好みを繰り返し伝える必要があります。
対策
専門家にとって、「保存されたメモリ」機能は繰り返しを減らす助けにはなるが、完全ではない。最も安全なのは、メモリとリマインダを併用することだ。スタイルや書式の選択が重要であれば、メモリだけに任せず、作業を進めながらその都度好みを伝えるべきだ。
(3)インフルエンサーのプロンプトを使ってもAIが従わない理由
多くのインフルエンサーが、当人に対しては完璧に機能するプロンプトを共有している。私もそれらのプロンプトを試してみたが、まったく異なる結果になった。同じ質問を私のChatGPTアカウントと夫のアカウントで比較すると、回答がまったく異なっていたこともある。自分が過去に尋ねたことと他人が尋ねたことの違いは結果に影響するのだろうか。
ChatGPTの回答:はい、文脈が重要です。各アカウントではメモリや履歴、さらにはシステムのアップデートがプロンプトとどのように相互作用するかに微妙な違いがあります。あなたが以前に尋ねたことがAIの応答に影響を与えるため、同じプロンプトでもまったく異なる結果につながることがあります。インフルエンサーのプロンプトは参考にはなりますが、別のアカウントで必ず同じように再現できるとは限りません。あなた自身のやり取りの履歴が結果を形作るのです。
対策
プロンプトを一字一句コピーするのではなく、テストして適応させるべきだ。自分のワークフローに合わせてプロンプトをパーソナライズし、安定してうまく機能するものを保存しよう。


