「問題解決」から「検証」へのシフト
この研究では、AIによって知識労働者の仕事へのアプローチが変化している実態も明らかになった。知識労働者の多くは、従来はAIを「問題解決のパートナー」として使っていたが、現在は自らが「AIの監視役」になる傾向が強い。その結果、直接的な業務遂行に費やす時間は減り、AIの回答から適切なものを選び、検証する方向へとシフトしているという。
調査対象となった知識労働者のうち70%近くが、コンテンツを一から作成するよりもAIを使って叩き台となるコンテンツを作り、それを精査・編集していると回答した。
このシフトは、特にコンテンツの作成や情報収集、戦略的意思決定に関わるタスクで顕著だった。こうした場面ではAIが最初の草稿や提案を作成し、人間のユーザーがこれに改良、調整、確認を行なっていた。
AIに過度に依存するリスク
AIを利用した業務におけるこうしたシフトは、リスクと無縁ではない。今回の研究も、「機械化による収斂(しゅうれん)」と呼ばれる現象について警告している。これはAIに依存した結果、多様性や創造性が奪われる現象を指す言葉だ。
十分な精査を行うことなく、AIが生成した提案をそのまま受け入れるユーザーが増えるなかで、独創性や文脈を踏まえた微妙な違いが失われる、との懸念が増している。
AIには得られた情報を一般化する傾向があるため、均質化につながりやすい。その場合、よく似た問題に取り組んでいる個々の人物が、ほぼ同じ解決法にたどり着いてしまう。その場合、人間による洞察であれば得られるはずの複雑性が失われがちだ。
主要な懸念点としては、ほかにも以下のような点が挙げられる。
・独立した問題解決能力の低下:認知能力を多く要求されるタスクの大半をAIが担ってくれるために、働き手がイノベーションに不可欠なより深い分析プロセスに従事する機会が減少する。
・誤情報に騙されるリスクの増加:AIモデルは改良が進んではいるものの、誤りや古い情報、バイアスのかかった回答を生成するリスクをいまだにはらんでいる。これに関しては人間が検証し、誤りを見つけ出して訂正する必要がある。
・思考における多様性の低下:AIの提案に過度に依存すると、標準化が行われる結果、独自の視点や創造的なアプローチの矮小化を招きかねない。


