やってはいけないこと
我々は何度も目にしてきた——フィードバックにうっかりChatGPTのプロンプトを含めてしまう教授、あるいはメールの末尾にChatGPTの定型的な追いかけ質問が残っているケースを。
原則として、ChatGPTの返答を決してコピペしないこと。ひとつの誤ったキーストロークが、リーダーとしての信用を損ない、少なからぬ恥を招きかねない——事前にAIの使用を開示していなかったことはもちろん、さらに、返信前にテキストを読む時間を取っていないことさえ明白になるからだ。私は、回答は手で打ち直すことを勧める。そうすれば、同時に編集し、自分の言葉に言い換えることになる(ChatGPTがすでにあなたの文体を体得していない限り)。
ChatGPTの情報に事実確認なしで頼らないこと。報告によればChatGPTは3%の確率でハルシネーション──まったくの捏造──をするというが、私の経験ではこの数字は過小評価だと言わざるを得ない。しかも、別のAIツールに切り替えようと考えたとしても、別のシステムのテストでハルシネーションが79%に達した例も示されている。要するに、拠り所とする前に事実を確認すること。ChatGPTが引用リンクを示した場合は必ず確認すること──実際には関連する情報源へつながっていない可能性がある。
もうひとつの厳格なルール:共感を必要とするような、人間中心のタスクをAIに外注してはいけない。
たとえば、部下の1人が数週間かけて提案書を作り、フィードバックを求めてあなたに共有してきたとする。彼/彼女は、正確さを期すために多くの心を注ぎ、時間と労力を投じてきた。
そこにChatGPTが生成した返答が届いたら、その人はどう感じるだろう。おそらく、失望、落胆、そして疎外感の入り混じった気持ちになるはずだ。少なくとも私は、チームメンバーにそのような感情を抱かせたくはない。
ChatGPTや他のAIツールを、仕事の手作業的で退屈な部分の自動化に使うのは問題ない。それらは、従業員があなたの意見を求めているタスク──直感や専門知識を引き出したいタスク──のための時間を生み出すからだ。それこそが、アルゴリズム的な論理ではなく、あなたの判断、共感、人間としてのリーダーシップが決定的な違いを生む場面なのだ。


