━━組み合わせですね。
ジョーンズ:ええ。いわゆる古典的なAIは、コンピュータが発明された頃、つまりプログラミングの黎明期にまでさかのぼります。ディープラーニングも1980年代か、それ以前からある技術です。にもかかわらず、一部の報道では、私たちがTransformerモデルを捨てて、まったく新しいものを開発するかのように書かれていますが、それはあまりにも短絡的です。次に登場する技術が何であれ、それはきっとTransformerモデルの面影を残しているはずですから。Transformerモデルが、かつてのニューラルネットワークを発展させたものであるように。そのニューラルネットワーク自体も、計算能力の向上を背景に、80年代のものを改良したものですよ。
私たちが(Sakana AIの公式ブログで)発表している研究をご覧いただければ、既存技術に対する新しい視点や、新しい学習方法を提案していることがお分かりいただけると思います。ちょうど今日、「多様性を重視した集団ベースのモデルマージ」という、モデルをより強力に統合する手法について記事を公開したばかりです(編集部註:取材日は2024年12月3日)。もちろん、私たちが試しているものの中には、Transformerモデルとは似ても似つかないものもいくつかあります。しかし、どうしても実験的な側面が強く、仮にそこから何かが生まれたとしても、世に出せるまでには数年を要するでしょう。
私自身は、この両方がある状態を気に入っています。片方には、「標準的な技術を、進化のような独自の手法でさらに一歩先へ進める」というアプローチ。そしてもう一方には、「これが次の主流になるかもしれない。どうなるかは誰にも分からないが」という、未来への賭けのような試みがあるのです。
━━デイビッド・ハCEOは、Sakana AIを「巨人の肩の上に立っている」AI企業だと表現されていましたが、まさに先人たちの基礎研究や知見を土台にされている、ということですね。
ジョーンズ:確か、社内ポータルのトップに「人と違うことをやろう。ただし、やり過ぎないように」と書いてあったと思います。


