PR・コミュニケーション戦略家として全米的に評価され、事業成果を生み出してきたリー・カラハーは、Double ForteのCEOであり、著者でもある。
昨年1年を通じて、私はこの質問の別バージョンを何度も投げかけられた。「AI戦略は?」
そのたびに、自信に満ちた断定的な答えを返したくなった。洗練され、包括的で、人を安心させ、聞き手の信頼感を高める——エージェンシーのリーダーが「答えるべき」とされる類いの回答だ。だが実際には、「いま積極的に見極めている最中で、これを試している。現時点でわかっていることはこうだ」といった言い回しを口にし、自分でもそれに満足できなかった。
この回答、そしてここ1〜2年にわたりAI戦略やポリシーについて交わしてきた数々の対話を通じて、私がずっと抱えてきた葛藤がはっきりした。自信を誇示し、すべての答えを持っているように振る舞い、「できるようになるまで演じる」という古いリーダーシップの定石は、いまや時代遅れなだけではない。むしろ積極的に危険ですらある。
結局のところ、私が不満を覚えていたその答えこそが、私が言うべき「答え」だったのだ。
確信が招く「信頼性の罠」
私たちは、奇妙な瞬間のただ中にいる。そしてそれが常態になりつつある。だからこそ、そこに慣れる必要がある。多くのエージェンシーのリーダーはAIがあらゆるものを変革すると信じる一方で、将来に関する前例のない不確実性にも同時に直面している。すべてを把握しているように見せる圧力は、かつてないほど高い。
だが、ここに罠がある。実際以上に知っているふりをすれば、これまでになく速く、そして確実に裏目に出る。
私は最近、ある企業が自社業界への関税影響に関するウェビナーを中止した場面で、これが現実に起きるのを目の当たりにした。「状況が急速に変化しているため、準備した内容が古くなった」と正直に言う代わりに、主催者は技術的な不具合のせいにした。誰もが見抜き、信頼の毀損は速く、そして急激だった。
ここで重要な区別をしなければならない。「わからない」だけでは答えにならない。特にクライアントワークにおいてはそうだ。「18カ月後にAIが業界をどう作り替えるかは正確にはわからない。しかし、いま私たちはこう動いている」と言うのは正直であり、それが信頼性を築く。
こうした経験を通じて私が改めて確信したのは、私たちが2つの「知」のバケツを扱っているということだ。
1. あなたが知るべきこと:専門領域の知見、クライアントの事業、チームの能力、指標、そして学習計画が含まれる。
2. あなたが知りようがないこと:世界に対するAIの影響の全貌、業界変革のタイムライン、そして来年どのツールが重要になるか、といったことだ。
いま成功しているリーダーとは、AIについての予測に最も自信を持つ人たちではない。「わかっていることはこれ、わかっていないことはこれ、学ぶべきことはこれ、そして……現時点ではこう考えている」と言える人たちである。AIが仕事にどう影響するのか、どう取り入れるのか、そしてどう使わないのか。私たちはその形を主体的につくっていかなければならない。さもなければ取り残される。
私はTwitterが登場する前に自分のエージェンシーを立ち上げた。いまの技術変革は、Twitter、Facebook、BlackBerryが私たちのコミュニケーションのあり方にもたらした変革と、多くの点で似ている。ただし、当時がコミュニケーションの「方法」を変えたのに対し、いまはコミュニケーションの「内容」と、それをどう決めるかを変えている。ソーシャルメディアが引き起こした地殻変動級の変化を受け入れなかったエージェンシーは取り残された。AIの適用における自分たちの役割を受け入れないエージェンシーも、おそらく同じく取り残される。2004年当時にいまの知識を持っていたかのように装うのが愚かであるのと同じくらい、今日のAIの影響についてすべての答えを持っているふりをするのも愚かだ。
代替ではなく「教師」としてのAI
最近、プロフェッショナルとして付き合いのある友人が職を失った。彼女は数カ月にわたり、ブログ記事、SNS投稿、メールキャンペーンなど、あらゆるコンテンツの生成と編集にAIを使っていた。仕事は卓越していて速く、アウトプットも多く、(新しく進化し続けるツールを使いこなしながら仕事をすることによる疲弊を抱えつつも)驚くほど生産的に見えた。
ところが、公開された記事の中に完全な捏造の統計値があることに誰かが気づいた瞬間、状況は一変した。記事全体の精査が行われ、その中にはAIが捏造した主張——プロンプトや過去の作業、そしてAIが事実であるかのように作り話を提示してしまう原因が何であれ、それらに基づいてツールが生み出したハルシネーション——が複数含まれていた。結局、友人は適切な検証を行わないままAIが生成・編集した成果物を公開しており、本来プロセスに組み込まれているはずのチェックは、控えめに言っても欠落していた。
この例は、個人や組織のミスに対する単なる警鐘ではない。AIの役割を誤解したときに何が起きるか、という話である。
私はAIをペンではなく鉛筆として捉えるようになった。鉛筆は下書きし、アイデアを練るためのものだ。書いた内容を消して、磨き上げられる。磨き上げるプロセスそのものが、仕事を改善するプロセスである。一方、ペンは最終決定、消せない記録、そして公開される成果物のためのものだ。
エージェンシーを含むあまりに多くの人が、AIをペンであるかのように扱っている。批判的な人間の検証というステップを欠いたまま最終成果として用い、意思決定を支えるのではなく、意思決定をAIに委ねている。
エージェンシーのリーダーとして、私たちは変化の速いツールとの正しい関係性を示さなければならない。チームがAI利用に関する私たちの期待値を理解できるようにすると同時に、クライアントに対しても、仕事や成果を損なわない形で最新の有望なツールを活用していると伝わるようにするためだ。
皮肉なことに、AIをうまく使えるようになる学びは、私たちが自分の仕事をより良く行うための学びにもなっている。(願わくば)自分たちが本当に何を望んでいるのか、何を正確に知っていて何を知らないのかを言語化することを迫られる。また、専門性を自動化するのではなく、専門性を適用しながらアウトプットと影響を批判的に評価することも迫られる。
そこにこそ、本当のリーダーシップの機会がある。チームが必要としているのは、品質管理の層としてのあなた——AIの出力が卓越しているときと、危険なほどもっともらしいナンセンスであるときを見極められる批判的思考者である。チームとクライアントが求めているのは、探索、試行錯誤、そしてガードレールに自信を持ちながら、同時に対価を得ている成果を届けることだ。
そしてそれは、「わからない」だけではなく、「現時点でわかっていることはこうだ」を受け入れる機会でもある。あるいは、もっと悪い「来年はこうなると確信している」といった言い方の代わりに、だ。



