「現時点では慈善資金に支えられたアプローチのほうが望ましい。解くべき中核的な研究課題があるからだ」とジョージは語る。「スタートアップは次の資金調達、そして資金調達を動かす次のデモを心配しなければならない。それは気を散らす要因になる」
採用のもう1つの梃子になり得るのが、研究成果のオープンな公開だ。Asteraは、初期のOpenAIにならい、研究を公開する計画である。OpenAIは、資本への飽くなき需要と競争圧力によって、やがてそれを手放し、秘密主義の営利構造へと移行した。
Asteraのミッションは言葉にすれば簡単だが、実行は困難である。脳がどのように機能するかを研究し、その洞察を用いて、より脳に近いAIシステムを構築することだ。ジョージは、これが現在のものより効率的で、透明性が高く、制御可能な新しいAIアーキテクチャにつながることを期待している。マケーレブとジョージが初めて会ったとき、2人は、ChatGPTのような製品を支えるAIアーキテクチャであるトランスフォーマーをスケールさせてもAGIは生まれないのではないかという共通の懐疑で意気投合した。彼らは、この分野が原点に立ち返る必要があると考えている。
OpenAIのサム・アルトマンCEOではこれに同意しない。1月、フォーブスに対し語ったところによれば、AGIには、1つの大きなブレイクスルーではなく「中規模のブレイクスルーが多数」必要になると彼は考えている。
マケーレブの批判はシンプルだ。「トランスフォーマーは、おそらく1つの側面……この種の予測をやっているだけだ」とマケーレブは述べ、計画、意思決定、動機づけといった重要な要素が依然として欠けていると付け加えた。
研究全体の潮流も、Asteraに近い方向へ動いている。Metaの元チーフAIサイエンティストであるヤン・ルカンが設立した新しいAI研究所AMIは、Metaで彼が進めた「ワールドモデル」(私たちを取り巻く世界の心的表象)の構築研究を前進させるため、最近10億ドルのシードラウンドで資金を調達した。
マケーレブは、脳に着想を得たAIこそ、より安全なAIへの道筋だと強調する。現在の最先端モデルは巨大で不透明であり、それが何を「知っている」のか、そしてなぜその回答に至るのかを理解するのは依然として難しい。
「それが人間の脳に近い形で機能するなら、理解できる可能性が高まる……最終的に非常に異質な、抽象的な数学的存在になってしまうのではなく」とマケーレブは語る。


