OpenAIのChatGPTは、私たちが行うほぼあらゆる作業の有用な助けになり得るが、人に気に入られようとするアルゴリズムのせいで、誰も求めていない追加質問をして時間を浪費させる。
以下に、この心理的病弊のいくつかの例と、OpenAIが取るべき対応を示す。
第1段階:素直なQ&A
ChatGPTの公開から数か月後、私は試しに使ってみることにした。私は同僚のジェス・トッドフェルドとともに、AI全般、特にChatGPTの倫理的課題についてのUdemy(ユーデミー)講座を開発していたので、この物議を醸すプラットフォームが正確には何者なのかを知る必要があった。
最初の数カ月間、私は次のような幅広い質問を投げかけた。
・地球はどれくらいの重さがあるのか?
・音楽とは何か?
・なぜ人は意見が合わないのか?
いずれの場合も、ChatGPTは詳細な答えを返し、それで終わりだった。
ときどき礼を言うと、「どういたしまして!」と返ってきて、望むならさらに喜んで手伝う、と付け加えた。私は望まなかったが、選択肢としてそれが用意されているのは悪くなかった。当初は。
第2段階:ChatGPTが追加質問をし始める
その後、ChatGPTは、私の問いに満足のいく答えを出したあとで、追加質問をするようになった。
たとえば私は「ニール・ヤングは通常、ハーモニカをどのポジションで吹くのか?」と尋ねた。応答は迅速かつ徹底していた。
「ニール・ヤングは第一ポジション(ストレート・ハープ)での演奏で最もよく知られており、とりわけ『Heart of Gold』(孤独の旅路)のような曲でそうしています」と答えた。
この返答の最後に、「彼の代表的なソロのタブ譜を1つ示して、ご自分で試せるようにしましょうか?」と付け加えた。
それは考えていなかったことだが、ChatGPTが申し出たので、私は「はい」と答えた。
第3段階:さらなる「お手伝い」の申し出――ああ
やがて私はパターンに気づいた。私が「シリコン製の調理器具を食洗機に入れても安全か?」のように直接的な質問をするたびに、役立つ答えを示したあとで、「耐用期間を延ばすためのベストプラクティスも挙げましょうか?」と続けるのだった。
焼いたサツマイモを冷凍してよいかと尋ねたときも、ChatGPTは問題ないと伝えたうえで、「温め直しのレシピも紹介しましょうか?」と付け加えた。
これらの申し出自体が問題というわけではないが、私は求めていなかった。短く焦点の定まった答えが、必ずしも望まない継続的なやり取りに変わってしまった。



