AIは、人間の考え方と働き方をどう変えているのか
どの組織も、人間の判断力を衰えさせようとしているわけではない。組織には、必ずと言っていいほど、その逆の目的がある。つまり組織は、意思決定力の向上、ミスの削減、迅速化を目指している。
しかし、AIをワークフローに組み込んでいく方法が、人間の行動を少しずつ変えていく。
AIシステムが確信をもって何かを提案してくれば、そこに至るまでのプロセスを理解する人は減り、異を唱えることも難しくなる。パフォーマンスをスピードと量で測っていると、立ち止まって熟慮することが正当化しにくくなる。
イノベーション専門家のアルフ・レーンが報告書の中で忠告しているように、AIのアウトプットに対しては、ある種の認知的なトリアージとして、優先順位を決定するという対応が最も一般的になる。焦点を絞り込み、あとはシステムのアウトプットをそのまま受け入れるわけだ。
表面上は、柔軟な対応と思えるかもしれない。システムは引き続きアウトプットを生成し、生産性が維持されているように見えるからだ。しかし実際のところ、人間はそのとき、主体性を手放している。
新技術の倫理的構造を研究するマシュー・アグスティンは、AIに伴う真のリスクは、人間が目的や判断、責任を自分で律することを止めてしまうところにあると主張する。業務が遂行され、意思決定が下されるが、判断に必要な条件は、気づかれることなく変化していく。人間は、問いかけたり解釈したりするより、検証したり実行したりすることに心地よさを感じるようになっていく。
AI専門家のロジャー・スピッツは、こうした状態を「superstupidity(超愚行)」と呼んでいる。AIの「superintelligence(超知性)」とは対照的に、人間が根拠を自分で理解しようとせず、AIへの依存を強めていく状態だ。
AIは、組織の意思決定をどう変えているのか
職場におけるAIをテーマにした議論では、生産性に目が向きがちだ。しかし、組織内において人間の行動が変化すれば、意思決定の仕組みも変わっていく。これは、職場にAIを導入した場合のリスクの中で、最も目に見えないものの一つだ。
従業員は、AIツールを効率的に活用することを期待されるが、AIツールが結論にたどり着く過程を理解することは、必ずしも求められない。マネージャーは、結果に対する責任を引き続き負いながらも、自分が設計したわけではないプロセスの中で仕事をすることになる。リーダーは、生産性が向上しているか否かを確認するが、従業員の能力に起こっている変化を測ることはめったにない。
そうして徐々に、AIに依存することが当たり前となっていく。自主的な論理的思考は、もう必要とされないからだ。
そうなると人間の役割は、誰にも再定義されないまま、変化していく。決定事項について熟考するどころか、自分では下していない決断をもとに、前へと進んでいくことになる。
マシンが予測や説得を担い、そのアウトプットを人間が疑ったり調べたりしなくなれば、組織はいわば、自社の「認知的な免疫システム」を外部に委ねてしまうことになる。テクノロジーと意識の関係を専門とする著作家のバリー・チュダコフが言うように、私たちが思考をAIに委ねれば、「それは何を意味するのか」「何をやるべきなのか」「どのような結果が得られるのか」と問いかける道徳的な能力をも、丸投げしてしまうことになる。AIは、パターンを見抜いて再現することは可能だが、そのパターンについて疑問を呈することはできない。
このような状況において、人間が思考の能動的な担い手であり続けるためには、人間の役割を守らなくてはならない。そのために人間は、自らが下した決断を理解し、結果への責任を自覚する必要がある。また、AIが生成したアウトプットに疑問を呈することもできる必要がある。
そうでなければ、組織は効率的に動く一方で、AIへの依存度をますます深めていってしまう。


