キャリア

2026.03.31 11:30

AIにより「若手が実務経験を積む機会」激減、企業はどう対応すべきか

Shutterstock.com

2030年代には、テクノロジーの力を借りてより多くのドラフト(下書き)を作成したような人が、プロフェッショナルとして評価される時代ではなくなるだろう。評価されるのは、解決すべき問題を見極められる人、判断や文脈、価値の欠落を防げる、人間ならではの貢献が可能な人だ。そうしたプロフェッショナルは、AIが作成したドラフトをうのみにせず、誤解を招く可能性の有無を見抜くことができる。複数のツールを組み合わせてバイアスを評価したり、アウトプットを検証したり、その影響をステークホルダーに明確に伝えたりする際に責任を担うことになる。

advertisement

そうした人材を育成するためには、従業員教育の新しいカリキュラムが必要だ。データリテラシーはもはや必須であり、システム思考は必要不可欠な中核的な能力になる。また、倫理リスクの評価は、コンプライアンス部門に任せきりにせず、日常業務に組み込まなくてはならない。

要するに、専門性の深みは、自ら動く実行力から、解釈の正当性(責任を持って判断すること)へと重心が移っていくことになる。

AI時代のキャリア開発を再設計する

「ツールが見抜けないこと」を把握できるようなプロフェッショナルを育成するには、新入社員から専門家へと至るキャリアの道筋を再設計しなくてはならない。

advertisement

従業員は今後、反復だけに頼らず、AIを「監視・監督(supervised oversight)」することで、仕事を身に着けていかなくてはならない。新人アナリストなら、AIが導き出した洞察と過去の事例を比較して、AIの盲点を特定することになるだろう。新人の人事担当者なら、採用選考でアルゴリズムが推薦した応募者を、多様性ゴールや文化的な適合度に照らし合わせて検討することになるだろう。若手プロダクトマネージャーなら、システムが見落としたエッジケース(例外的事象)をテストする場合も出てくる。

このようなAIの監視・監督が、これまでは業務の反復で身に着けてきたような判断力を養うことにつながる。しかし、こうしたことは自然に起こるわけではない。組織は、従業員がAIの生成した前提やトレードオフ、結果を直接目にして確認できるよう、職務やワークフロー、成長経路を意図的に設計する必要がある。

具体的には、従業員がAIのアウトプットに疑問を投げかけられるよう余地を設けたり、AIの意思決定について正当であることの根拠を求められるようにしたり、人間とマシンの双方の選択の背後にある推論プロセスを可視化したりする、といったことだ。

こうしたことに取り組まなければ、専門性は浅薄なものとなり、理解に根差した知識が失われ、ツールにただ依存する事態に陥ってしまうだろう。逆に、組織が積極的に取り組めば、新たな形の下積みのプロセスを構築できるかもしれない。業務を実践しなくても、物事の見方、解釈の仕方、異議の唱え方を学ぶことで、専門性が深まっていくだろう。

forbes.com 原文

翻訳=遠藤康子/ガリレオ

タグ:

advertisement

ForbesBrandVoice

人気記事