では、どうすれば「サプライズ」を減らせるのか。AIの急速な発展は認知バイアスを克服し、組織文化を改善する救世主となるのか。確かにAIは確証バイアスを減らし、大量の証拠を識別できるが、過信は禁物だ。人間はテクノロジーを過信しやすく、敵はAIに誤情報を学習させ誤導させる可能性がある。兵器の進化が「盾と矛」の競争であるように、AIも敵対的AIとの競争になる。さらにAIは過去データに依存するため、前例のない事態には信頼性が低下する。政策決定者がAIの結果を唯一の正解と誤認すれば、判断の柔軟性を失い戦略的選択肢を狭める危険がある。
学ぶべきは情報機関だけではない。「不確実性のなかで判断する」という困難性は変わらない。「見落としリスク」を減らすには、常識では「ありえない」シナリオも検討すべきだ。敵は常に裏をかこうとする。政策決定者は前提となる常識を疑い、多角的な視点と柔軟な戦略思考が求められる。
では、何をすべきか。第一に、代替仮説の体系的運用である。複数仮説を並列検証する競合分析を標準化する。 第二に、異端視点の制度化である。外部専門家やレッドチームを常設し、既存の前提に挑戦する役割を担わせる。第三に、AI活用のガバナンスである。AIを補助的に使い、過信を避ける。敵対的AIへの対策を含む「AIセキュリティ」を国家レベルで整備すべきだ。最後に、戦略レベルでの統合分析である。インテリジェンス機関、軍事指揮官、地経学アナリストなど多様な専門家を結集し、代替仮説を再検証する「クロスドメイン分析」を制度化することが不可欠だ。
こうした改革は、予期せぬ「サプライズ」を完全に防ぐものではない。しかし、見落としリスクを最小化し、国家の戦略的柔軟性を高めるための現実的な道筋である。ジャーヴィスが警告するようにインテリジェンスの失敗は不可避だが、その影響を減らす努力は不可欠である。
柿原国治◎地経学研究所 主任客員研究員/国際安全保障秩序グループ長。専門は国家安全保障戦略、米中関係等。外務省出向後、北部航空警戒管制団司令や航空総隊司令部幕僚長、航空開発実験集団司令官(空将)など、航空自衛隊の要職を歴任し2024年退官。


