「既存のアーキテクチャを使って自分で構築することもできるが、LiveKitのソリューションは多くのユーザーが利用できるスケーラビリティがある上、音声だけでなく、画像や動画を同時に消費することも可能だ」とスリニヴァスは話す。彼は、OpenAIの最新のマルチモーダルモデルであるGPT-4oのデモがLiveKitのネットワーク上で行われたことに感銘を受けたという。
Yコンビネータでの出会い
ドゥサと共同創業者のDavid Zhao(デイビッド・ザオ)は、かつて別々の動画ストリーミング事業を立ち上げ、2007年にYコンビネータで出会った。その後、ドゥサはツイッターに、ザオはモトローラに就職した。2012年に再開した2人は、初めて一緒にいくつかのアイデアを試した後、最終的に機械学習ベースのニュース推薦アプリを運営するEvie Labsという会社を設立した。彼らは、2019年に同社をMediumに3000万ドルで売却した後、2021年にLiveKitを設立した。同社は、コロナ禍においてインタラクティブなアプリケーションに動画や音声機能を簡単に追加できるツールを提供した。LiveKitの顧客は、AIモデルの開発企業だけではない。ドゥサによると、同社のオープンソースツールは、カスタマーサポートの電話対応や病院による患者との診察予約、農場での自律走行トラクターの運転などに使われているほか、警察や救急、消防の出動要請の4分の1に用いられているという。LiveKitは、同社のツール群が、大容量の映像や音声データをリアルタイムに通信する用途において、データ転送プロセスを迅速かつ効率的にすると主張している。
ドゥサによると、音声や映像のインターフェースをより人間に近い音や見た目にすることを目指す企業が増える中、データをすばやく伝送できる高速ネットワークは、これらのシステムの能力に大きな違いをもたらし、AIとのインタラクションをより柔軟にするという。
「大半の人はAIの処理能力に注目しており、ネットワークインフラに注目している人はほとんどいない。しかし、ネットワークはAIの未来を支える重要な要素なのだ」と彼は語った。
(forbes.com 原文)