AI

2025.12.05 09:04

AIを列車ではなく鉄道として捉える新たな視点

Adobe Stock

Adobe Stock

ダヴィデ・サルティーニ氏、G. モンディーニ社チーフ・コーポレート・オフィサー / フォーブス・イタリア「トップ100 CMO」(2021年)| キャピタル・マガジン「トップ150マネージャー」(2020年)。

特にビジネス開発に携わる者にとって、現代の最大の課題の一つは、より良いものを作るために、私たちが構築しているものに疑問を投げかける能力だ。これは西洋世界の特徴的な資質であり、自己批判と自らの過ちから学ぶ能力である。

今日、すべての目はAIの新しいツールに向けられており、それがどこに向かっているのか、そして私たちがこれらの新興技術をどのように活用しているのかに注目している。しかし、ビジネスリーダーにとっての真の問いは、AIが世界を変えるかどうかではなく、その変化を持続可能な成長、レジリエンス、そして信頼に向けて私たちが導いているかどうかだ。

暗い側面

ほとんどの新技術と同様に、AIは間違った方向に力を行使するために使用される可能性がある。

昨年9月、世界中の複数の空港がサイバー攻撃の標的となった。自動化されたAI搭載のチェックインシステムが悪意のあるソフトウェアによって改ざんされ、人々の移動に大きな混乱をもたらした。この攻撃を受けて、EUはサイバーセキュリティ計画を見直し、2025年には、AIを活用したサイバー攻撃やデジタル戦争が紛争の新たな最前線になっていることを改めて認識させることとなった。

地球上で増加する戦争の前線数も、自律型兵器システムの使用拡大に注目を集めている。この発展は冷戦時代の核軍拡競争に匹敵するものだ。これらの兵器は「一度起動すると、人間のオペレーターによるさらなる介入なしに、標的を選択し攻撃する能力を持つ」と定義されている。

ビジネスの例も考えてみよう。ハーバード大学の最近の研究では、懸念すべき傾向が明らかになった。2015年から2025年にかけて6200万人の労働者と28万5000社の米国企業を対象とした研究によると、ChatGPTなどのツールを採用している企業では、若手労働者の数が顕著に減少している。一部のセクターでは、若手の採用が最大40%も減少している。

これは単なる雇用統計ではなく、ビジネスモデルが人材戦略よりも速いペースで変化していることを示すシグナルだ。残念ながら、人的能力に再投資せずに自動化を進める企業は、長期的なイノベーションを推進する専門知識そのものを損なうリスクがある。若い労働者は、機械に置き換えられる反復的なタスクを担当することが多いが、彼らがエントリーレベルの役割を拒否されると、シニア社員が退職した際に、企業はどのように同レベルの社内経験と複雑なスキルセットを確保するのだろうか?

より協調的な取り組み

分断と不確実性をもたらす可能性があるにもかかわらず、AIは共有されたスーパーパワーになり得ると私は信じている。世代間や文化的な違いと調和し、健全で効果的かつ効率的なビジネスを構築するという共通の目標を達成するものだ。だからこそ、将来を計画しながら、AIの効果、利点、潜在的なリスクを研究することが不可欠なのだ。

規制はトップから始まる。

リーダーは政府が規制を課す前に、内部ガバナンスの枠組みを構築しなければならない。私自身の考え方の一部を形作った歴史家であり哲学者のユヴァル・ハラリ氏は、AIの非合理的な使用に対して世界に警告している。興味深いのは、ハラリ氏はこれらの新しいツールを恐れているにもかかわらず、これらの新しいツールを賢く使用・管理できる世界を創造できるのは、依然として人間であると主張していることだ。彼はこう書いている。「コンピュータはまだ、私たちの制御から完全に逃れたり、人類文明を自ら破壊したりするほど強力ではない。人類が団結している限り、AIを規制する機関を構築することができる」。しかし、ここに落とし穴がある。彼は続けて「残念ながら、人類はこれまで一度も団結したことがない」と述べている。

より意図的なデータの使用

出発点として、リーダーは目的の管理者でなければならない—データが何のためにあるのかを決定するのだ。

デジタル倫理とAIの分野で長年活躍しているイタリアの哲学者ルチアーノ・フロリディ氏によると、今日の生成モデルは、論理と計算に基づく過去のモデルとは異なる。ChatGPTなどの言語モデルは膨大な量のデータ—ビッグデータ—を収集し、確率に基づいて応答を生成する。このため、フロリディ氏は、私たちは統計学の一分野に直面していると報告している。

レジリエントな企業は、今や起こりそうにない出来事を例外ではなく、設計パラメータとして扱わなければならない。しかし、地球上の生命そのものが統計的な異常と見なせる宇宙において、未来への計画が純粋に確率論的なアプローチを超えなければならないことは容易に理解できる。エッセイストであり数学者のタレブは、彼の最も有名な著作『ブラック・スワン:予想外の出来事の衝撃』で決定論と確率のテーマを扱っている。タレブは、確率を超えた出来事(ブラック・スワン)があることを私たちに思い出させる。それらは起こりそうにないが、それでも発生し、その確率の低さゆえに深刻さが増幅される大惨事を引き起こす可能性がある。彼の「七面鳥の問題」の例は象徴的だ:七面鳥は何ヶ月も餌を与えられ、統計的に農場主の目標が自分の長寿と安全を確保することだと学ぶ。しかし、その前提を覆すのにたった一日で十分であり、七面鳥の予期せぬ死で終わる。タレブの根底にあるブラック・スワン理論はこうだ:理論を証明するには千日では足りないが、それが間違っていることを証明するには一日で十分だ。

では、私たちは本当に新しいツールを最善の方法で使用していると確信できるのだろうか?あるいは、単一のミス—おそらくまだ起きていないミス—が私たちの誤りを証明する可能性が常にあるのだろうか?

私たちの責任

18世紀の著者たちを読んでいると、技術的な力が不平等を減らすのか、それとも深めるのかとよく考えさせられた。AIをポジティブな力にするためには、それを深く理解し、民主的な目的のために使用する必要がある—これは労働市場をはるかに超える課題だ。

今日、私たちはフェイクニュースによって形作られた社会に生きている。AIシステムは人間が作った虚偽を糧にしている。フロリディ氏とハラリ氏が指摘するように、AIは完璧なモデルではなく、私たちがどのような存在であるかを増幅するものだ。だとすれば、この力がより健全で価値観に基づいた社会を構築することを確実にするのは、私たち次第ではないだろうか?

私の見解では、AIは素晴らしい発明だが、それは列車というよりも鉄道に似ている:私たちが線路を敷き、目的地を定め、前進する方法を選択するのだ。AIは偽情報を広めたり戦争を煽ったりする可能性があるが、民主主義を守り、知識を拡大し、私たちの生活の質を向上させ、仕事をより正確にし、考える習慣を失うことなく生きるための時間をより多く残すこともできる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事