最近、大学教授がChatGPTなどのAIツールを使っているというニュースが相次いでいて、学生は不満を募らせている。授業料の返還を求めた学生もいるほどだ。
それは理解できる。課題に本気で取り組み、熟考を重ねているなら、評価する側にも同等の労力と配慮を求めるのが当然である。では、線引きはどこにあるのか。
同様の力学が、リーダーと従業員の間でも生じつつある。リーダーはしばしばAIの利用に境界線を設けようとするが、自分自身の習慣は見逃されがちである。
自動化を最優先するアプローチを公言する企業のCEOとして、私は自分がチームに示す手本について深く考えている。自分が守らないガイドラインを従業員に守るよう求めるのは難しい。透明性は譲れない前提だ。自らの経験に基づき、ChatGPTを使用するリーダーのための「やるべきこと」と「やってはいけないこと」を以下に示す。
やるべきこと
米国のロースクールは独特の教育手法で知られており、その柱のひとつがソクラテス式教授法である。これは、教授が学生たちを一連の質問で導く手法だ。映画『ペーパー・チェイス』(Paper Chase)は、この手法は学生に恐怖心を植えつけるためのものだと思い込ませるかもしれない。しかし本質はそこではない。
シカゴ大学ロースクールのエリザベス・ギャレット教授が説明しているように、目的は、「法的問題を分析する方法を学び、類推によって推論し、自分自身や他者の主張を批判的に考えること、そして、法がその適用対象に与える影響を理解すること」にある。
ときに、正しい問いを立てることが、答えをよりよく理解する助けとなる。
同じ発想で、私はChatGPTのようなツールを、重要な意思決定を下す前にあらゆる角度や変数を検討したかを確かめるための、ソクラテス式対話に取り組む「意思決定パートナー」と見なしている。
たとえば、マーケティングディレクターから次のような問いを受けるとする。「初期の勢いを逃さないために今すぐ新製品を出すべきか、それとも完成度が十分に高まるまで発売を見送るべきか」。直感はある方向を示す——そこで私は状況と自分の論拠をChatGPTに提示し、見落としているかもしれない論点を洗い出すよう求める。
マクロなレベルでは、ChatGPTは思考の幅を広げ、より十分に理にかなった意思決定へと導く助けになる——自信をもって下せる判断に至れるということだ。
一方、ミクロなレベルでは、ChatGPTは些細に見えても信頼性を損ねかねない小さなミスを避ける助けになる——たとえば “your” と “you’re” の取り違えひとつで、手間をかけて練ったメールが場当たり的に書かれたように見えてしまう。したがって、ChatGPTを最終的な校閲者として活用すべきだ。たとえば、誤字脱字の指摘や可読性向上のための修正提案を依頼できる。そのひと手間——AIによる「第二の目」でテキストを確認すること——は、とりわけテキストやグラフィックの重要度が高い場合に大きな違いを生む。
ただし、次のChatGPTプロンプトを書く前に、以下の「してはならないこと」を確認してほしい。



