キャリア

2026.05.18 00:44

「ロボットに奪われないスキル」という幻想──AI研究者が語る仕事の未来

stock.adobe.com

stock.adobe.com

神経科学者でAI研究者のヴィヴィアン・ミンは、私たちは誤ったものを測定し、誤った特性で採用し、人間の能力を低下させるAIを構築していると語る。彼女が主張する解決策は、さらなる訓練ではない。必要なのは、別種の人間である。

ミンは『Robot-Proof: When Machines Have All the Answers, Build Better People』の著者だ。彼女は、多くの経営層が語るのと同じ仕方で仕事の未来を語らない。彼らが「AIは退屈な作業を吸 し、人間をより面白い仕事へ解放する」という分かりやすい生産性の物語として捉えがちなところを、彼女ははるかに不穏な情景として見る。連続起業家でもあるこのAI起業家は、議論の前提そのものが誤っており、企業が現在訓練しているスキルこそAIが最初に習得するものだと主張する。

「私たちは、AIが実際にはどのような知能なのかを誤解している」と彼女は言う。「エージェント型AIは『どうやるか』の機械である。コーディング、法的分析、財務モデリングのルールを学び、人間の誰よりも速く、安く実行できる。仕事が過去データで定義できるなら、いずれAIがそれを担う」

ミンの中核的な主張は明快だ。特定のスキルで「ロボットに奪われない」ものはない。リーダーが問うべきは、どの技術的能力が生き残るかではなく、機械がより賢くなるにつれて、どの人間的能力の価値が実際に上がるのかだという。彼女の研究室の研究に基づく答えは、多くの組織が育成に不向きなものだ。「学習データに正解も、拠り所にできる『やり方』もない真の不確実性の下で、うまく機能する能力」である。

効率化の罠

それが微妙な言い換えに聞こえるとしても、ミンはこれが組織運営に甚大な影響を及ぼすと主張する。彼女の見立てでは、最初の犠牲になるのは、AIを効率化の手段として投入しようとする反射的な企業本能だ。

「リーダーは効率の最適化をやめるべきだ」と彼女は言う。「効率とは、未来が過去の延長線上にあるという賭けである。AIを効率化ツールとして売り込む人間には、強い懐疑の目を向けるべきだ」

最も危険な神話は、「AIが単調な仕事を引き受けるので、人間はより高度な仕事に集中できる」という心地よい物語だと彼女は言う。経済的には、生産が安くなると、それは減るのではなく増える傾向がある。「何かを生み出すコストをほぼゼロまで下げれば、生産は減らない。桁違いに増える」

心理的な構図はさらに悪い。「『退屈な仕事』は、しばしば専門性が実際に構築される仕組みそのものだ」とミンは言う。「思考の生成フェーズ、つまり無から何かを生み出すための実際の格闘を外注すると、学習が止まる」

彼女によれば、研究室のデータはその影響を具体的に示している。「AIを使う多くの学生では、真の認知的関与を示す脳活動が40%以上低下する。見栄えのするアウトプットを出しながら、考える量は減っている。これは生産性の向上ではない。隠れた欠損である」

メタ学習:スキルの下にあるハードウェア

スキルの向上(upskilling)と再学習(reskilling)を福音のように教え込まれてきた世代の働き手に対して、ミンは異端のメッセージを突きつける。概念枠組みそのものが浅すぎる、というのだ。

「スキルとは、特定の問題に対する特定の解決策である」と彼女は言う。「環境が変わるまでは役に立つが、変わった瞬間に役に立たなくなる。特定の技術スキルの半減期は急速に短くなっている」

彼女の分析では、より重要なのはメタ学習である。人があらゆるスキルを獲得できるようにする基盤的な能力だ。彼女は、ワーキングメモリ、不確実性への耐性、知的謙虚さ、視点取得といった基礎要因の短いリストを挙げ、それらを「ソフトスキル」という抱き心地のよいカテゴリーと混同してはならないと断言する。

「これらはソフトスキルではない」と彼女は言う。「従来のスキルが動く土台となるハードウェアである。基盤的能力がなければ、誰かを良い思考者へとスキルアップさせることはできない」こうした資質は固定ではないが、変えるのは難しいと彼女は付け加える。そして、企業の人材開発プログラムのほとんどは、それらを動かすようには設計されていない。

それを見抜く方法、そして伸ばす方法

メタ学習を見極めるには、異なる種類の観察が必要だとミンは言う。従来の評価は、その人がすでに知っていることを捉える。メタ学習は、真の不確実性の下でしか姿を現さない。

「反証となる証拠を探しにいくのか、それとも確証を掘り当てにいくのか」と彼女は問う。「プロジェクトが失敗したとき、より良い問いを立てるのか、それとも責任を負わせる相手を見つけるだけなのか」

彼女の研究室では、彼女が「不適切に定式化されたシナリオ」と呼ぶものを構築する。ルールが変わり続け、データの中に答えが存在しない状況である。彼女が観察するのは、演技ではなく認知のふるまいだ。「採用では、候補者が知らない領域の問題を与えるべきだ」と彼女は助言する。「答えを知っているかをテストしているのではない。誰も答えを知らないときに、どう考えるかを見ているのだ」

継続的に自己を再発明できる人を育てるには、多くの組織が尻込みする特定の設計選択が必要だという。それは、学習が危険に感じられるが、生き延びられるものにすることだ。「今の能力ではわずかに解けない問題を与え、失敗には現実の利害を伴わせ、回復には現実の支援を用意しなければならない」

組織が最も見落としがちなのは、回復のためのインフラだと彼女は言う。「支援のない挑戦は、トラウマを生むだけだ。新しい問題で失敗することは許容され、むしろ想定されるべきだが、失敗から何も引き出せないことは許されない環境が必要である」

しかし多くの企業文化は、彼女の見立てでは正反対だ。「彼らは『知っているように見えること』を報いる。私たちは、人々を学習下手にする行動を体系的に選抜している」

二流のAIを教え込む

ミンは、最も鋭い批判のいくつかを従来型の教育に向ける。彼女は、教育が子どもたちを、最も速いペースで自動化されている仕事へ向けて訓練していると考えている。

「従来の教育は、子どもたちに二流のAIになることを教えている」と彼女は言う。「既知の問題に正解を返すことを教えている。私たちは、指示に忠実に従い、『既知を既知へと変換する』人間を生み出すよう最適化された教育システムを作ってきた。そして、問いが何なのかすら分からない世界にうまく移植できないことに驚いている」

転換点は、言うのは簡単で実行は難しいと彼女は主張する。「私たちが関心を持つべき唯一の問いは、機械がより賢くなるにつれて、どんな人間的資質の価値が上がるのか、である。『正解』ではない。正解はポケットの中で無料で手に入る」

企業の学習・能力開発も、同じ罠にはまっていると彼女は言う。「いまのL&Dは、コンプライアンス研修やソフトウェアのオンボーディングに偏りすぎている。AIが3年で自動化するツールの使い方を教えている」

彼女の処方箋は、学習のために彼女が「敵対的条件」と呼ぶものを設計することだ。現場で、混沌としていて、未解決の、現実の利害を伴う問題である。鍛えるべき特定の能力は、「自分のパニックの外に一歩出て、状況を分析的に見る能力」であり、能動的に問いを立て続ける規律と組み合わせる。「私たちは実際に何を解き明かそうとしているのか。そして、これはそもそも正しい問いなのか」

より深い目標は文化だと彼女は言う。「組織の『生産的な困難』への耐性を高め、『間違っていることが悪い』という発想を揺さぶらなければならない。生産的に間違えることができないなら、それは達成できない。そこが、イノベーションが依存するメタ能力なのである」

肩書の先を見て採用する

ミンの採用哲学は、彼女の科学から直接導かれる。不安定な環境では、心地よい代理指標――名門学位、特定の技術スタックでの経験年数、3年後には存在しないかもしれない職務での過去の実績――は、将来の成功を予測する指標としては弱いと彼女は主張する。

「私たちは代理指標で採用する」と彼女は言う。「これは評価が容易で、客観的に感じられるから心地よい。しかし、不安定な環境での成功を予測する力は弱い」対策は、「読み取りやすい資格の専制」を捨てることだという。

彼女自身の研究室では、面接で1つの質問を使う。「狂った科学プロジェクトを提案してほしい」と彼女は候補者に言う。「世界を変えられるなら、どんな問題に取り組み、どう始めるのか」ただし、彼女が評価しているのは最初のアイデアではないと、彼女はすぐに断っている。

「最も重要なのは1時間後、私たちが一緒にそのアイデアを現実にする方法を考えた後に来る」と彼女は言う。「そのとき私は自問する。『2人で考えたほうが、私が1人で考えるより良いアイデアになったか』。答えがイエスなら、その人は採用だ」

より良い機械ではなく、より良い人間をつくる

ミンが「より良い人間」について語るとき、彼女はその意味が多くの経営層が想定するものとは異なると慎重に区別する。彼女の用法における「より良い」は、より生産的、より配備しやすい、の同義語ではない。

「それらは機械で最適化する性質だ」と彼女は言う。「より良いとは、あなたを予測可能な入力に変えようと非常に積極的に働きかけてくる世界の中で、自分の主体性を保つための認知的・情緒的なアーキテクチャを持つことを意味する。自分の現実モデルが誤っていると認識する知的謙虚さ、そして古いモデルを守るのではなく新しいモデルを築く勇気を持つことを意味する」

彼女によれば、そうした能力は道徳的に魅力的であるだけではない。「それは、私たちがいま最適化しているものの多くよりも、人生の成果――教育達成、所得、健康、人間関係の質、さらには死亡率まで――をよりよく予測する」

ハイブリッド知能へ

ミンの仕事を貫く設計上の批評が1つあるとすれば、それはAI産業がこの10年ほど、そして数兆ドルを投じて、私たちを必要としないシステムを構築してきたという点だ。

「私たちは、私たちを必要としないAIを作るために莫大な金を使ってきた。自律性に最適化されたAIだ」と彼女は言う。「すべてが摩擦ゼロである。それは良いデザインに感じられるが、その向こう側にいる人間を気にするなら、ひどいデザインである」

ユーザーが欲しいものを常に与え、信念を肯定し、認知的な負荷を一切要求しないAIは、彼女によれば増強ではない。「それは、時間とともにあなたの能力を低下させるための、非常に洗練された仕組みである」

彼女の研究で最も効果があった介入は、拍子抜けするほど単純だった。彼女のチームは、直接の答えを拒み、問いと文脈だけで応答するエージェントを作った。「人々は本当に使うのを嫌がった」と彼女は言う。「それでも、そのモデルが最も高いハイブリッド知能を生んだ。ユーザーが欲しいものではなく、必要なものだけを与えたのだ」

ミンはいま、彼女がハイブリッド知能と呼ぶものを測定するベンチマークを開発している。モデルが単独で何ができるかではなく、それが一緒に働く人間に何をもたらすのかを測るためのものだ。彼女がすべてのリーダーに、あらゆるAI導入について問うてほしいのは、彼女が研究室で作るあらゆるツールに対して自分に問うのと同じ問いである。

「それは時間とともに人の能力を育てるのか、それとも消費するのか」

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事