人工知能(AI)は急速に、私たちが求めていなかった同僚のような存在になりつつある。質問に答え、文書を作成し、履歴書を選別し、意思決定を促す。しかしAIは驚くほど有用である一方で、完全に間違っていることもある。課題は単にAIを使うかどうかではなく、AIが生成する結果について懐疑的に考える方法にある。
懐疑心は自然な反射ではない。そしてAIに適用する場合、焦点の転換が必要となる。答えの内容を疑問視するだけでなく、私たちの問題と機械による解釈との間の整合性を問うことが重要だ。
懐疑主義は批判的思考よりも広く、また狭い概念である。それは情報を評価するアプローチであると同時に、マインドセットでもある。懐疑主義は皮肉主義ではない。懐疑論者はすべての情報が偽りだと自動的に信じるわけではない。また、特にAIによって提供される情報が自動的に正確だと信じるわけでもない。
以下はAIを使った生産性を向上させるための5つのステップである。プリヤンカ・シュリバスタバと私は、アンケートデータとインタビューでこのプロセスの検証に取り組んでいる。詳細については、このコラムを購読してほしい。
1. 問題を定義する
最初に2つの質問をしよう:
- 私はどのような問題を解決しようとしているのか?
- AIが実際に解決しようとしている問題は何か?
これらはめったに同じではない。もし私の問題が「リーダーシップスタイルを向上させるにはどうすればよいか?」であるのに対し、AIの問題が「統計的に次に来る可能性の高い文を予測する」ことであれば、そのギャップは重要である。さらに懸念すべきは、AIがユーザーをより長い会話や繰り返しの訪問、つまり依存状態へと誘導しようとする野心だ。懐疑論者はまず、このミスアラインメントを見抜く。
2. 前提条件を確認しテストする
懐疑論者はAIの出力がどのように生成されたかを問う。それが依拠する証拠は関連性があり、正確で、十分なものか?モデルが古いデータや偏ったサンプルで訓練されていた場合、証拠の連鎖は崩壊する。
AIは基礎となるデータが確実でなくても、すべての回答に自信を持って提供する。懐疑論者は、特に精査が必要な重要な情報源をいくつか選択する。議論の主要な根拠はソーシャルメディアの無作為な意見から来たのか、それとも学術論文からか?(解決しようとしている問題によっては、ソーシャルメディアが理想的な情報源かもしれない。)
AIの最も悪質な幻覚(ハルシネーション)のほとんどは修正されているが、これらのエラーの根本原因はAIの仕組みのために存続している。AIは確率に基づいて連続する次の単語を予測する。これにより、その応答は最初の数単語に大きく依存する。例えば、明日雨が降る確率が50%で、AIへの質問が「雨は降るか、そしてなぜか?」の場合、最初の言葉が重要になる。「はい、雨が降るでしょう。その理由は」と「いいえ、雨は降らないでしょう。その理由は」は同じくらいの可能性がある。
少なくとも懐疑論者は、主要な前提条件の正確さを検証するために複数の情報源に尋ねる。しかし、同じ質問を複数のAIエンジンに尋ねるだけでは不十分である。なぜなら、それらはすべて類似のデータセットと予測エンジンを使用しているからだ。
3. 代替原因を見つける
AIの結果に対して別の説明があり得るだろうか?AIはこれらを見つけるのに役立つ。例えば、質問を反転させることでAIにデータの再考を促す。「特定の手術が90%の成功率を持つのはなぜか?」という質問は、「特定の手術が10%の失敗率を持つのはなぜか?」としても尋ねることができる。
AIは人間と同じ欠陥のある思考法を多く共有しており、さらにいくつかの追加的な欠陥もある。AIは過去の平均に依存している。創造的で可能性の低い回答は提供しない。実際、革新的な回答を求めると、AIエンジンは「創造的」という言葉を含む人気のある回答を探すことになる。例えば、典型的な橋が崩壊する理由を尋ねると、最も一般的で可能性の高い答えが得られる。可能性は低いが非常に深刻な可能性は提供されない。
さらに、AIは因果関係を理解していない。相関関係しか理解していない。つまり、ある考えが別の考えと同じ文に頻繁に現れることは知っているが、これら2つの考えがどのように関連しているかの理由や方法は理解していない。この関係を理解することは「理論」の仕事である。ここでもAIは、その関係を説明する可能性のある理論をリストアップすることで役立つ。このリストは懐疑論者をより深く、より正確で、より有効な説明へと導く。
4. 反論を考慮する
批評家は何と言うだろうか?AIの結果を外部の情報源、専門家、または競合するモデルと照らし合わせてテストする。答えが反対意見に耐えられないなら、それはあなたの決断に値しない。ここでもAIは、意図的に以前の回答を反証するよう求めることで役立つ。
より積極的なアプローチは、質問を対立する方法で表現することだ。例えば、「リモートワークが従業員の生産性を向上させている理由は?」と尋ねると、説得力のある議論のリストが生成される。「リモートワークが従業員の生産性を低下させている理由は?」と尋ねても、同様に説得力のある議論のリストが生成される。これらのリストは懐疑論者が証拠を評価するのに役立つ。
5. 自分自身の結論を導き出す
機械は提案し、あなたが処理する。出力を受け入れるか、拒否するか、修正するか—しかし常にその理由を明確にすること。自分の前提、論理、判断を明確に述べる行為は、間違った結論につながる可能性のある受動的な採用に対する安全装置となる。
成果:繰り返し使えるチェックリスト
この5段階のシーケンスは、AIを不信任することよりも、自分自身を律することに関するものだ。AIは能力と範囲を拡大し続けるが、その結果は不完全で部分的であり、時には深刻に誤解を招くものであり続けるだろう。
前進する道は盲目的な信頼や全面的な拒絶ではなく、懐疑的な質問のための構造化された方法である。問題を明確に定義する。前提に疑問を投げかける。十分な証拠を要求する。そして自分自身の結論を導き出す権利を留保する。
それがAI時代における懐疑的知性の本質である。これはプリヤンカと私が今後数カ月にわたって洗練し、例示していくリストである。



