AI

2026.04.20 09:26

AIの進化に不可欠な「脳の理解」──なぜ投資が圧倒的に足りないのか

Adobe Stock

Adobe Stock

文明史上、最も重大な技術競争が進行中である。世界の主要企業は、ただ1つの目標──人間レベルの人工知能──を追い求め、数千億ドルを投じている。

advertisement

しかし、まだ誰も成功していない。Googleも、OpenAIも、Anthropicも。

今日に至るまで、既知の宇宙で汎用知能を備えたシステムの実例は1つしか存在しない。それが人間の脳である。

にもかかわらず、人間の脳がどのように働くのかについて、私たちはいまだに驚くほど理解していない。さらに驚くべきは──そして不合理ですらあるのは──その理解を前進させるための投資がいかに少ないかという点だ。

advertisement

人類が脳の理解に割いている総リソースは、現在主流のAIパラダイムのスケールアップに費やされているリソースに比べ、不釣り合いで、ほとんど滑稽なほど乏しい。

2025年、Alphabet、Amazon、Meta、Microsoftの4社だけで、AIインフラ──データセンター、チップ、そして最先端AIモデルの学習と稼働に必要なエネルギー──に約4000億ドルを投じた。今年はこの額が6000億ドルを超える見通しだ。2030年までに、McKinseyは、人類がAIデータセンターの建設に驚異の6兆7000億ドルを投資すると推計している。

これらの数字を、昨年の最重要の脳研究の取り組みと比べてみよう。

2025年、非営利団体Asteraは、神経科学の第一人者であるDoris Tsaoを責任者として、史上でも最も潤沢な資金が投じられた部類に入る脳研究イニシアチブを立ち上げた。この新プログラムは、投資規模が前例のないものとして報道で大きく取り上げられた。

Asteraはこの取り組みについてこう記している。「私たちは科学における最も深い謎の1つ、すなわち脳がいかにして意識体験、認知、そして知的行動を生み出すのかを理解したい……これらの原理を解明できれば、神経科学とテクノロジーの双方が変革されるだろう。意識体験を生成するメカニズムを明らかにすると同時に、AGIのための新たな枠組みを提供するからだ」

Asteraのプログラム規模はどうか。10年で6億ドルである。これは、今年だけでも一部企業がAIデータセンターに投じる年あたり投資額と比べ、4桁──すなわち1万倍──小さい。

人間の脳を理解するためにこれまで実施された最大のイニシアチブは、2014年に始まった米国政府のBRAIN Initiativeである。複数の政府機関が連携する取り組みだ。10年以上にわたるBRAIN Initiativeへの累計投資額は、わずか30億ドルにすぎない。資金が最も大きかった単年は2023年で、投資額は6億8000万ドルが上限だった。

これらの数字の相対的な規模は歴然としている。社会レベルで深刻な資源配分の誤りを示している。同時に、巨大な機会でもある。

今日の世界で、知能の本質をよりよく理解することほど価値が高く、切望されているものは多くない。結局のところ、AIインフラに数兆ドルが注ぎ込まれている根本の動機は、この追求──知能をよりよく理解し、そのデジタル版を創り、収益化すること──にある。Nvidiaを世界で最も価値のある企業に押し上げたのも、この追求である。OpenAIやAnthropicを急速に1兆ドル評価へと押し上げているのも、この追求だ。

もし、知能の本質についての理解を前進させ、ひいてはその強力な人工版を開発する能力を高めるうえで、最も効果的でレバレッジの効く方法が、数兆ドルと世界中のエネルギーと計算資源を投じて現在の(明らかに不完全な)AIパラダイムを拡大することではなく、第一原理から、汎用知能システムの実在する唯一の証拠である人間の脳をより深く理解することだとしたらどうだろうか。

これは追求するに値する、筋が通っていて、むしろ自明にも思える仮説である。だが、今日の人類の資源配分のされ方を見る限り、依然として驚くほどコンセンサスから外れた見方のままだ。

具体的に、人間の脳をより深く理解することで、AIの追求はどのように強化されるのか。脳ができて、現代のAIシステムにはまだできないこととは何か。

この問いへの答えは多いが、ここでは3つに絞ろう。

1)継続学習

最初の答えは、経験から継続的に学習する能力である。人間にとってはたやすいことだが、今日のAIはまったくできない

人間は、生涯にわたって新しい事実を学び、新たな技能を身につけ、新しい人に出会い、新しい場所に慣れていく。新たな経験や知識に触れるたびに、脳は1日1日、刻一刻と変化している。この能力は神経可塑性(neuroplasticity)として知られる。生涯を通じて新しい神経結合を形成することで、脳が自らを再編成する能力のことだ。

数十年にわたる努力にもかかわらず、私たちはこの能力を備えた人工ニューラルネットワークをどう構築すればよいかを、いまだに突き止められていない。今日のAIは継続学習ができないのである。

その代わり、現在のAIシステムの作り方は「学習(training)」と「推論(inference)」という2つの明確に分かれたフェーズを前提にしている。学習フェーズでは、AIモデルは大量のデータを与えられ、そこから世界について学ぶ。次に推論フェーズでは、モデルが実運用され、学習で得た内容にもとづいて出力を生成し、タスクを遂行する。

AIの学習はすべて学習フェーズで起こる。学習が完了すると、AIモデルの重みは固定される。実世界に配備された後、AIはさまざまな新しいデータや経験にさらされるにもかかわらず、その新しいデータから学ぶことはない。

AIが継続的に学べないことを補う回避策はいくつかある。たとえば、インコンテキスト学習、反復的なファインチューニング、外部メモリと組み合わせた検索拡張生成(RAG)などだ。しかし、どれも問題を完全には解決しない。

継続的に学べるAI──人間の脳のように、重みを継続的に更新できるAI──を作ろうとする試みは、いずれも同じ根本的な課題に突き当たってきた。破滅的忘却(catastrophic forgetting)である。

端的に言えば、破滅的忘却とは、人工ニューラルネットワークが新しい知識を追加する際に、古い知識を上書きして失ってしまう傾向を指す。たとえば、タスクAをこなすよう最適化された重みを持つAIモデルを想像してほしい。次にタスクBをこなすための新しいデータにさらされる。継続学習の中心的な前提は、タスクBを解くことを学ぶために、モデルの重みが動的に更新されうるという点にある。しかし、タスクBのために重みを更新すると、必然的にタスクAをこなす能力が低下してしまう。

人間は破滅的忘却に悩まされない。たとえば運転を学んでも、テニスのやり方を忘れることはない。米国史を学んでも、代数の解き方を忘れることはない。人間の脳は、既存の知識を犠牲にすることなく、学びを継続的に取り込むことができる。

私たちは、脳がどうやってそれを実現しているのかをまだ理解していない。もし理解できれば、AIに継続学習を解放する設計図になりうる。そしてそれは非常に大きな意味を持つ。

「継続学習を解決したとき、フロンティアモデルの価値には大きな不連続が生まれるだろう」と、AI論者のDwarkesh Patelは昨年書いた。「継続学習が可能なAIは、これ以上アルゴリズム的な進歩がなくても、機能的にはかなり急速に超知能になりうる」

人間の脳についての部分的な理解からでも、いくつかの手がかりは得られている。

脳には2つの異なる学習システムがあることが知られている。海馬は「高速学習者」であり、日中に新しい情報を素早く符号化する。大脳新皮質は「低速学習者」であり、情報を長期の知識基盤へと徐々に統合していく。海馬から大脳新皮質へ情報を取り込むプロセスが慎重かつ選択的であるため、脳は古い枠組みを上書きすることなくパターンを見つけ、新しいデータを既存の枠組みに当てはめられる。

短期の海馬から長期の大脳新皮質への情報移送で中心的な役割を果たす、普遍的でありながらいまだ謎に満ちた人間の活動がある。睡眠と夢である。

神経科学からのもう1つの洞察は、人間の脳のモジュール性と疎な(スパースな)アーキテクチャが、継続的に学習できる能力に重要な役割を果たしているという点だ。

AIモデルが行動を起こすとき、すべてのニューロンが活性化する。人工ニューラルネットワークでは知識が、ネットワーク全体の重みにグローバルに分散して格納されているからだ。これは、現代AIの基礎アルゴリズムである誤差逆伝播法(バックプロパゲーション)の帰結でもある。誤差信号をネットワーク全体に逆方向へ送り、学習プロセスの中で全重みを同時に更新することを含意する。

このようなグローバルに相互依存するアーキテクチャでは、継続学習に必要な重みの一部変更(たとえごく小さな割合でも)が、膨大な知識を攪乱し、破滅的忘却を引き起こしうる。

人間の脳はこのようには設計されていない。脳内のニューロン間結合は、グローバルなアルゴリズムや誤差信号に依存せず、局所的相互作用にもとづいて強まったり弱まったりする。ヘッブ学習(Hebbian learning)──「一緒に発火するニューロンは結びつく」という言葉で要約される生物学的学習の中核──は、このより局所的な学習プロセスを体現している。

関連して、人間の脳は人工ニューラルネットワークよりはるかに疎に結合している。脳の860億のニューロンは、平均すると数千の他のニューロンとしか接続していない。その結果、学習内容はニューロンの小さな部分集合にモジュール的に保存され、脳全体に影響を与えたり破滅的忘却のリスクを生んだりしにくい。任意の時点で──人が学んだり考えたり行動したりしているとき──活動しているニューロンは全体の1%から10%にすぎない。一方、典型的な深層学習モデルではニューロンの100%が活動する。

(スパースなMixture-of-Expertsアーキテクチャはこの点に関する近年の重要なAIイノベーションだが、それでも人間の脳の疎性とモジュール性には遠く及ばない。)

したがって、疎性とモジュール性は、破滅的忘却を回避しながら人間が神経ネットワークを継続的に更新できることを可能にする、重要な設計原理である。

人間の脳の疎でモジュール的なアーキテクチャに関する洞察を活用して、継続学習可能なAIシステムを開発できれば、きわめて価値が高い。そのためには、まず脳をもっと深く理解する必要がある。

海馬と大脳皮質の構造と振る舞いにはどのような類似点と相違点があり、それぞれが短期・長期の学習センターとしての役割を果たすことを可能にしているのか。睡眠と夢の最中、脳内で何が起きているために学習内容が滑らかに定着するのか。脳の局所的・モジュール的・スパースなアーキテクチャを可能にする詳細なメカニクスと構造要素とは何か。

これらは答えられる問いである──しかし、まだ答えは得られていない。答えを得るためには、脳研究にもっと本気で投資する必要がある。

AIの先駆者であるAndrew Ngが今年、1950年の元祖チューリングテストを刷新した形として提案した、人工汎用知能(AGI)の次のテストを考えてみよう。

「被験者──コンピュータでも人間でもよい──には、インターネット接続とウェブブラウザやZoomといったソフトウェアが利用できるコンピュータへのアクセスが与えられる。審査員は、コンピュータを介して被験者が数日間にわたって業務タスクを遂行するよう設計された体験を作る。たとえば、一定期間の訓練(コールセンターのオペレーターとして等)の後、タスクの遂行(電話対応)を求め、継続的なフィードバックを与える、といった体験である。これは、完全に動作するコンピュータを持つリモートワーカー(ただしウェブカメラなし)に期待されることを模している。コンピュータが熟練した人間と同等に業務タスクを遂行できれば、チューリング-AGIテストに合格となる」

AGIが間もなく到来するという喧騒は耳をつんざくほどだ。証拠なら、OpenAIの社員と思しき人物のX(旧Twitter)アカウントをどれでも見ればよい。だが、今日のAIシステムでこのテストに合格できるものはない。私たちは、1年後もこのテストがAIに攻略されないままだと予測する。

理由は何か。今日のAIは、経験とフィードバックから継続的に学習するようにはアーキテクチャ上できていないからである。これは、現代AIの現実世界でのインパクトを制約する、深刻な欠陥だ。

一方で人間の脳は、まさにこれを行う点で驚異的である。脳をより深く理解できれば、その秘密を借り、適応させて、より強力なAIを構築できるだろう。

2)資源効率

次に、人間の脳が今日のAIモデルに対して圧倒的な優位を持つ領域は、資源効率である。

現代AIの決定的属性の1つは、その途方もないエネルギー需要だ。

最近、1ギガワット(GW)超の電力を消費するAIデータセンターが多数建設された、あるいは建設中である。たとえば、IndianaにあるAmazonのProject Rainier(2.2GW)、TennesseeにあるxAIのColossus(2GW)、LouisianaにあるMetaのHyperion(2GW)、TexasにあるOracle/OpenAIのStargate Abileneプロジェクト(1.2GW)などだ。

これらの数字を直感的に言えば、1ギガワット、すなわち10億ワットは、概ねサンフランシスコ市全体が消費するエネルギー量に相当する。

しかも、まだ始まったばかりである。OpenAIのCEOであるSam Altmanは最近、OpenAIの長期目標はAIデータセンター容量を毎週1ギガワットずつ追加することだと発表した。

最先端AIモデルの学習と稼働には、気が遠くなるほどのエネルギーが必要だ。

実際、AIの貪欲なエネルギー需要は、すでに地球上の利用可能な電力の限界に突き当たり始めている。

そのため、近頃はデータセンターを宇宙に置くという発想が大きく勢いを増している。Elon Muskは、この構想をSpaceXとxAIの合併、および今後予定されるSpaceXのIPOの中心テーマに据えている。

Muskは2月にこう書いた。「AIに対する世界の電力需要は、近い将来であっても、地上のソリューションだけではコミュニティと環境に負担を課さずに満たすことはできない。長期的には、宇宙ベースのAIこそが明らかに唯一のスケール手段である」

この状況を人間の脳と比べてみよう。

人間の脳の重さは約1.4キログラムである。頭蓋骨の中に収まる。そして電力はおよそ20ワットで動く

20ワットである。これはxAIのColossusやMetaのHyperionのようなAIデータセンターが消費するエネルギーより、1億倍──8桁──少ない。

それにもかかわらず、脳は、今日の最先端AIでも到達できない認知的偉業を成し遂げる。

どうしてそれが可能なのか。人間の脳は、なぜ現代AIよりはるかに資源効率が高いのか。

短い答えは、わからない、である。もしわかれば、はるかに省エネルギーな人工知能システムを開発する鍵となり、数兆ドル規模の経済価値を解き放つかもしれない。

ただし、興味深い手がかりはいくつかある。

1つ目は、脳がデジタルではなくアナログの計算機であるという事実だ。デジタル計算機は、すべての情報処理を離散的で高精度かつクロックに同期したステップへと押し込み、毎秒何十億、何兆ものビットを反転させる。デジタルチップで5+5という単純な計算を完了するだけでも、答えがちょうど10.000000として登録されることを保証するために、何千ものステップが必要になる。それぞれのステップがエネルギーを消費する。

対照的に、アナログ計算デバイスでは、計算は物理現象の直接の副産物として起きる──脳の場合、イオンがニューロンに出入りすることがそれに当たる。アナログデバイスでは、ハードウェアそのものの物理が数学を行う。計算と物理過程は同一である。その結果、アナログ計算機はエネルギー投入がはるかに少なくて済む。

人間の脳と今日のデジタル計算機のもう1つのアーキテクチャ上の違いで、エネルギー効率に大きな影響を及ぼすのが、計算とメモリの物理的な共置である。

たとえばNvidiaのGPUのような今日のAIハードウェアでは、AIモデルの重みはある場所(ランダムアクセスメモリ、RAM)に保存され、それらの重みを用いる計算は別の場所(テンソルコア)で実行される。AIモデルを学習または配備するとき、モデルの重みはメモリと処理コアの間を絶えず物理的に行き来しなければならない。

今日のAIが消費するエネルギーの大半──最大90%──は、計算を行うためではなく、単にメモリと計算の間でデータを往復移動させるために使われている。この課題は「フォン・ノイマン・ボトルネック」として知られる。伝説的数学者John von Neumannが1945年に考案し、今日のデジタル計算機の多くを規定する基本アーキテクチャにちなむ。

この問題は人間の脳には存在しない。なぜか。脳のニューロンという同じ物理単位が、同時に記憶を保存し、情報処理を行うからだ。言い換えれば、脳のプロセッサは記憶でできている

こうした脳に関する観察はいずれも、より省エネルギーなAIハードウェアとソフトウェアをどう構築しうるかについての、魅力的な示唆である。

そして実際、今日の有力AI企業の多くが、人間の脳のこうした特徴に触発された技術ロードマップを追求している。

たとえばAIチップ企業のGroqは、チップのレイアウトにおいてメモリと処理を物理的に交互に配置する手段として、スタティック・ランダムアクセスメモリ(SRAM)の利用を先駆けて推し進めた。メモリと処理の距離を短くすることでデータ移動の必要性が減り、フォン・ノイマン・ボトルネックが緩和され、エネルギー効率が向上する。Nvidiaは数カ月前、Groqを200億ドルで買収した。

別の例として、伝説的AI起業家のNaveen Raoが、Sequoia、a16z、Lightspeedからの資金4億7500万ドルを得て最近立ち上げたスタートアップ、Unconventional AIがある。Unconventionalは、今日のGPUよりAIワークロードに対して何桁も高いエネルギー効率を持つアナログ計算機の開発を目指している。

Raoらはこう述べている。「ニューラルネットワークにはすでに生物学的アナログがある。人間の脳だ。そしてそれはたった20ワットで動く。ニューロンは固有の物理特性を用いて知能を構築している。私たちは同様の非線形ダイナミクスを示すシリコン回路を構築し、知能のための新たな基盤を作ろうとしている。知能に対して適切な同型性を構築できれば、デジタル計算機でこれらのプロセスをシミュレートするより、はるかに効果的に効率向上を解き放てるだろう」

これらは刺激的な取り組みである。だが、その前提となっている人間の脳理解は、依然として粗く、不完全だ。人間の脳に近いエネルギー効率を持つAIシステムを構築したいのなら──それは文明にとって深く変革的な達成となるだろう──最もレバレッジの効く道は、人間の脳がどのように働くかをよりよく理解するための研究に投資することである。

3)真に新しい発見

今日の大規模言語モデルは、既存データの膨大な集積を取り込むことで世界について学ぶ。ChatGPTやClaudeのようなAIシステムは、人類がこれまで書いてきたもののほぼすべて──インターネット全体、世界中の書籍、世界中の科学論文など──で学習してきた。これにより、既存の知識体系があるあらゆるトピックについて知的に対話できる。

しかし同時に、それは能力が、人間がすでに発見し公表した知識によって定義され、制約されることも意味する。今日のAIシステムが驚くほど強力であるにもかかわらず、学習データに含まれていない新しい知識を生み出すことはできない。

この点を強調するために、別のAI第一人者が最近提案したAGIのもう1つのテストを考えよう。

数カ月前、Google DeepMindのCEOであるDemis Hassabisはこう述べた。「私が考えているテストは、たとえば知識カットオフを1911年に設定してAIシステムを学習させ、そしてアインシュタインが1915年にやったように一般相対性理論を思いつけるかを見る、というものだ。これが、完全なAGIシステムを持っているかどうかの真のテストだと思う」

今日、このようなことに近いことができるAIシステムは世界に存在しない。

既知の宇宙で正味の新しい知識を生み出したことがあるのは、人間の脳だけである──少なくともそれだけが知られている。Newtonの万有引力理論、Pasteurの細菌説、Darwinの自然選択による進化論、量子力学、Nietzscheの破壊的な道徳哲学。これらは、人間の精神が跳躍し、「分布外(out-of-distribution)」の洞察を生み、過去から根本的に断絶する形で世界の理解を再構成してきた、歴史上の劇的な例である。

現代文明を構成するすべて──私たちが住む建物、身にまとう服、移動に使う車や飛行機、服用する薬、暮らす都市、コミュニケーションに使うデジタルデバイスやネットワーク──は、何千年にもわたって積み重なってきた、こうした無数の跳躍と再構成(大きなものも小さなものも)の結果としてのみ存在する。

実際、新しい知識の創出こそが、人間の脳の最重要能力であり、汎用知能を特徴づける決定的な性質だと主張することもできる。

そしてそれは、今日のAIにはなお到達できない能力である。

人工汎用知能の追求において、人間の脳が私たちに教えうることは確かにある。

ここで強化学習について一言触れておく価値がある。

LLMを支える自己回帰型トランスフォーマーモデルとは異なり、強化学習は既存の人間生成データから学ぶことを前提としないAIパラダイムである。

代わりに強化学習は、AIエージェントを対話的な環境に置き、試行錯誤を通じて自ら学習させる。どの行動が正の結果につながり、どの行動が負の結果につながるかを一次的に経験することで、エージェントは目標を達成するために世界を効果的にナビゲートする方法を徐々に学ぶ。

強化学習は、AIシステムに驚くほど知的で洗練された振る舞いを生み出しうる──その振る舞いは、特定の状況において人間がすること、あるいはこれまで人間がしたこととまったく似ていない場合もある。既存の人間データで学習せず、人間を模倣するよう教えられてもいないため、強化学習ベースのシステムは時に、真の新規性や創造性を示しているかのように見える。

その最も象徴的な例が、DeepMindのAlphaGoにおける「Move 37」である。

古代中国のゲームである囲碁は、世界で最も複雑なボードゲームである。チェスよりはるかに複雑で、合法な盤面の数は宇宙の原子数より多い。長い間、トップ棋士に勝てるAIを作ることは不可能だ、少なくとも何十年も先だと考えられていた。

ところが2016年、DeepMindはAlphaGoを公開し、世界最高の囲碁棋士であるLee Sedolを5番勝負で完勝して世界を驚かせた。

最も記憶に残る瞬間は、第2局のAlphaGoの37手目だった。

AlphaGoの37手目は奇妙だった──あまりに奇妙で、多くの観察者が悪手だと決めつけたほどだ。囲碁の打ち方に関する何千年もの人類の蓄積知に真っ向から反していた。予想外すぎて、Sedolは気持ちを落ち着けるために席を立ち、15分間部屋を出なければならなかった。

しかしMove 37は前例のない、見事な戦略的妙手だった。第2局、そして勝負全体の決定的な転機となった。

Sedolは試合後にこう語っている。「人間の手ではない。こんな手を人間が打つのを見たことがない……あまりにも美しい。私はAlphaGoは確率計算にもとづく、単なる機械だと思っていた。だがこの手を見て考えが変わった。確かに、AlphaGoは創造的だ」

では、Move 37に鮮烈に示された強化学習というパラダイムは、「今日のAIシステムは人間の脳のように新しい知識を生み出せない」という主張を覆すのだろうか。

いくつかの考察がある。

まず、AlphaGoがDeepMindによる驚異的な成果であったとしても、それがただのボードゲームだったことは重要である。囲碁盤は19×19の格子で、駒は黒と白の2種類。ボードゲームは現実世界に比べれば、無限に単純化され、制約された環境である。

私たちはまだ、物理学や生物学や経済学といった現実世界の領域で、Move 37のような新規性と創造性を伴う強化学習主導のブレークスルーを目撃していない。「現実世界のMove 37」を目にする日が来れば、それは歴史的なマイルストーンとなるだろう。

しかし、より重要な点は、脳は実際に何らかの強化学習に相当することを行っているようだということであり、それが脳の独自の認知能力を可能にするうえで重要な役割を果たしているとみられる。

一例として、2020年にDeepMindとHarvardのチームは発見した。分布型時間差分強化学習(distributional temporal difference reinforcement learning)として知られるアルゴリズムは、人工ニューラルネットワークで長年成功裏に用いられてきたが、実は人間の脳もまたアルゴリズムとしてそれを用いており、神経伝達物質ドーパミンが実装に重要な役割を果たしている、というものだ。

研究者たちはこう書いている。「脳に分布型強化学習が存在することは、AIと神経科学の双方にとって興味深い示唆を持つ。この発見は、AI研究が正しい方向に進んでいるという自信を高めてくれる。というのも、このアルゴリズムは、私たちが認識している最も知的な存在──脳──ですでに使われているからだ」

私たちは、脳が強化学習を用いているという事実が、AGIへの道筋において強化学習が重要な役割を担うという説得力のある証拠だという点で、DeepMindとHarvardの研究者に同意する。

それでもなお、である。今日のAI分野で使われている強化学習アルゴリズムの多くは、さまざまな点で単純で、効果が低いままだ。

TeslaとOpenAIでAI部門を率いたAndrej Karpathyは、率直にこう述べた。「今日の強化学習は、多くの人が思っているよりずっとひどい。強化学習はひどい。ただ、それ以前のものはもっとひどかった。なぜなら、それまでは人間を模倣していただけだからだ」

ほかの批判とともに、Karpathyは今日の強化学習を「ストローで監督信号を吸い上げる(sucking supervision through a straw)」と印象的に表現した。つまり、今日の強化学習アルゴリズムは粗く非効率であり、複雑で長く情報量の多い行動列から、基本的な信号(正か負の報酬)しか引き出せないという意味だ。

人間の脳は、今日の最先端AI研究者が考案したものより、はるかに洗練され、エレガントな強化学習のバージョンを動かしているように見える。それが何であるかを学べれば──脳の働きをより深く理解できれば──新しい発見や洞察を生み出せるAIを作る鍵となりうる。

結論

「人間の脳は、私たちが知る限り、宇宙における汎用知能の唯一の例である」と、Google DeepMindのCEO兼共同創業者であるDemis Hassabisは最近語った。

認知神経科学のPhDを持つHassabisは続けてこう説明した。「だから私は神経科学を学んだ。これが可能であることを示す、私たちが持つ唯一のデータポイントを理解したかったからだ」

注目すべきことに、AnthropicのCEO兼共同創業者であるDario Amodeiも神経科学のPhDを持つ。Amodeiは最近こう述べた。「私は当初、知能が根本レベルでどのように機能するのかを理解したくて神経科学に入った」

神経科学と人工知能の分野の協業と相互受粉の機会は膨大である。しかし今日、それらは劇的に十分に探究されず、十分に投資もされていない。

今日のAIシステムの基本アーキテクチャであるニューラルネットワークが、生物学的な脳にゆるやかに着想を得たという事実を超えると、人間の脳に関する理解は、現在の最先端AI研究の方向性にほとんど影響を与えていない。

これは残念であり、機会損失である。

その最大の理由は、私たちが、人間の脳がどのように働くのかを、人工知能システムの構築に直接反映できるほどには理解していない、という事実にある。

しかし、状況は変えられる。人間の脳をより深く理解することを、より緊急の優先事項にすべきであるし、そうできる。

脳に内在する詳細なアルゴリズムと構造を解き明かすことは、継続的に学習でき、何桁も少ないエネルギーで動き、根源的に新しい発見を生み出せる次世代AIシステムの開発を可能にする。そのようなシステムの価値は、今日のAIをはるかに凌駕するだろう。それこそが究極の賞品である。

では、人間の脳をよりよく理解するためにリソースをもっと投じると言うとき、具体的には何を意味するのか。どのような取り組みが最も追求に値するのか。

多くあるが、ここでは特に1つを取り上げる。ヒト・コネクトームのマッピングである。

「コネクトーム(connectome)」とは、脳内のすべてのニューロンとシナプスが互いにどのようにつながっているかを示す包括的な地図を指す。脳の細胞単位の配線図である。

ヒト・コネクトームが得られれば、脳がどのように作られ、どのように機能するのかについて、より深く、より具体的で、より完全で、より実用的な理解が可能になる。

知能の科学と技術においてコネクトームが果たしうる変革的役割を理解するうえで、最良の歴史的アナロジーは、ヒトゲノム計画と、それがバイオテクノロジーにもたらしたインパクトかもしれない。

「コネクトームは、神経技術にとってのゲノムであり、バイオテクにとってのゲノムと同じ関係にある」と、プリンストン大学教授でコネクトミクスの先駆者であるSebastian Seungは語る。「今日、神経技術が人間の脳機能を回復・増強する可能性について大きな熱狂がある。しかし神経技術は、コネクトームなしには潜在力を決して実現できない。バイオテクは、ヒトゲノム計画とゲノム革命によって数兆ドル産業へ変貌を遂げなければ、ニッチ市場のままだっただろう。その過程で、生物学的知能という最も不可解な謎は、コネクトミクスによって『オープンソース』技術へと変換される。その設計原理が明らかになり、AIへの新しく刺激的なコネクトーム的アプローチを可能にする」

コネクトームのマッピングは、複雑で時間を要するエンジニアリング上の挑戦である。ただし、いきなり完全なヒト・コネクトームに取り組む必要はない。道中には価値ある中間ステップが存在する。

1986年、研究者はC. elegans(線虫、ニューロン数302)のコネクトームを完成させ、史上初の動物コネクトームのマッピングに成功した。コネクトミクスにおける次の大きな成果は2024年末に訪れた。Seungが率いる研究チームが、Drosophila(ショウジョウバエ、ニューロン数139,255)のコネクトームをマッピングしたと発表したのである。これら2つのコネクトームは、動物の脳がどのように働くのかについての理解を大きく前進させた。

次の最善のステップは、最初の哺乳類コネクトームをマッピングすることだろう。おそらくマウス(約8500万ニューロン)である。マウスの脳と人間の脳は遺伝的重複が99%あるため、マウス・コネクトームから私たちは膨大なことを学べる──その後、究極の目標であるヒト・コネクトーム(約860億ニューロン)へ進む。

費用はいくらかかるのか。

推計はさまざまである。コネクトーム生成に用いられる技術のコストが急速に下がっており、見積もりの前提が動いているからだ。

神経科学とAIの交差領域における主要な思想家であるConvergent ResearchのCEO Adam Marblestoneは、完全なマウス・コネクトームは1億ドル未満で達成できると推計している。

完全なヒト・コネクトームの推計は、一般に数百億ドルの範囲──あるいはそれ以下──に収まる。

これは大金である。しかし、既知の宇宙で唯一の汎用知能の秘密を解き明かし、理解するためなら、十分に見合う投資だ。毎年AIデータセンターに投じられている資本の一部にすぎない。何度も、何度も、元を取るだろう。

これほど投資に値する科学的事業を想像することは難しい。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事