先月、子どもたちの誕生日会に出席した。ふだん自分が参加する数少ない社交の場の中でも、他のテック系創業者とは交流しないタイプの集まりだ。ぐらぐらするケーキを薄い紙皿の上でなんとか切り分けようとしていると、会話はAI――具体的にはChatGPTのようなLLM(大規模言語モデル)――の話題に移った。
「正直、何がそんなにすごいのかわからないんですよね。自分ではうまく使えないんです」と、ある父親は厚いフォンダンをほおばりながら不満を漏らした。「トーンがいつも的外れで。変な前提を勝手に置くし、全体的に大げさに持ち上げられすぎだと思うんです」。
この種の声はよく耳にする――とりわけ、他の人が称賛する「魔法」を体感できていない、賢く有能な人たちから聞くことが多い。だが多くの場合、問題はテクノロジーそのものではない。私たちの「話し方」にある。
生成AIとのやり取りは、命令を与えること以上の行為で、文脈を与えることでもある。そして、生成AIに対して明確にコミュニケーションする方法――プロンプトエンジニアリング、もしくは単にプロンプティングと呼ばれるもの――を身につけることは、エンジニアに限らず、リーダーやクリエイター、オートメーションの時代により賢く働きたいすべての人にとって、急速に重要なスキルとなっている。
プロンプティングの力
端的に言えば、プロンプティングとは、AIツールから最大の価値を引き出すために、効果的で意味のある指示・問いかけを作る実践である。そんなことは承知の人も多いだろう。だが、その重要性がどれほど大きいかまでは理解していないかもしれない。
「AIの出力はあなたの入力に依存します。プロンプティングはその入力の一部です」と、認定キャリア専門家のキース・スペンサーはCNBCに語る。「望む結果を得るには、良い質問をし、適切な指示を与えるのが上手になる必要があります」。
言い換えれば、「ゴミを入れれば、ゴミが出る」ということだ。曖昧で、情報過多で、構造の悪いプロンプトをAIツールに与えれば、自分で作業したほうが早かったと後悔するほど、生成物の手直しに時間を費やすことになるだろう。
どれほど高度なモデルでも、その応答は与えられた指示に大きく左右される
「プロンプト」という言葉が数年前に一般化して以来、AI技術は大きく進化してきた。それでも、どれほど高度なモデルが増えようとも、応答は依然として与えられた指示に大きく左右される、とMITの最近の研究は示している。実際、研究者らは、より高度なモデルを使った場合の性能向上のうち、モデルそのものに起因するのは半分にすぎず、残りの半分はユーザーがプロンプトをどう適応させたかによるものだと突き止めている。
「多くの人は、より良い結果は主により良いモデルから生まれると考えがちです」と、同研究の共著者でコロンビア大学の助教であるデービッド・ホルツは語った。「しかし、改善のほぼ半分がユーザーの行動に由来していたという事実は、その思い込みに大きな疑問を投げかけます」。



