スケールAIはスケール可能なのか?
スケールAIが自動運転車向けのデータラベリング市場を支配するようになるころには、その名前はある種皮肉のようなものになっていた。顧客のAIのスケール(規模)が拡大すればするほど、人間の労働力の確保が困難になったからだ。ワンはまず、その人員不足を埋めるために外注企業に頼ったが、すぐにコストが急騰。18年の初頭に約65%だった粗利益は、同年の第4四半期にはわずか30%に近づいていた。
そこで登場したのが、前出のリモートタスクスである。17年に創業された同社は、東南アジアとアフリカに十数の施設を開設し、何千人ものラベルづけ作業員を安価な労働力として育成した。やはり前出のプレゼン資料によると、19年半ばには、スケールAIの利益率は69%まで回復していた。
同社はリモートタスクスを、周到に別ブランドに位置付けてきた。スケールAIのウェブサイトには、この会社への言及はいっさいなく、その逆もまたしかりだ。フォーブスの取材に、初期の従業員たちは、これはスケールAIの戦略を競合他社に見破られにくくし、詮索から逃れるためだったと述べている。これに対し、スケールAIは、両ブランドを分けた理由は顧客の機密保持のためだと主張している。
一方、英オックスフォード大学の研究者たちは、22年に発表された15のデジタルプラットフォームの労働条件に関する調査のなかで、リモートタスクスが「公正な労働条件の最低基準」において、10の要件のうち2つしか満たしていないと結論づけた。例えば公平な賃金の基準も(初期の従業員たちによると時給は平均数セントだという)公正な代表権も満たしていないというのだ。
研究者たちは、リモートタスクスとスケールAIとの関係性が「曖昧になっている」ことが混乱を招き、それが「労働者たちが搾取されやすい原因になりうる」と指摘している。
主任研究者は、リモートタスクスのようなデジタル労働サービスで働くラベルづけ作業員たちを、同じ国々にあるアパレル工場の労働者たちに例えて、「こうした労働環境に対する説明責任は、実質的にゼロだ」と語った。一方、スケールAIは、作業員たちへの「生活賃金」の支払いにしっかり取り組んでいるとしている。
さらに、倫理面の問題のほかに、ビジネス面の課題もある。スケールAIがリモートタスクスでやっていることは、ほかの企業にも再現が容易だという点だ。掲示板サイトなどにコンテンツのモデレーションサービスを提供するAI企業Hive(ハイブ)の共同創業者ケビン・グオも、かつては自社でラベル付けの企業を運営していたが、利益率の低さから閉鎖している。グオに言わせると、スケールAIが手がけているようなデータラベリングはコモディティ化したビジネスなのだ。
「作業チームを用意できれば誰でも参入できますし、本当にあっという間に価格競争になりますから」
米国のAI分野の覇権を守るため
リモートタスクスが擁する膨大な海外の労働力は、スケールAIの民間部門での成功には不可欠な存在だが、同社のもうひとつの注力分野では役に立たない。その分野とは、米政府相手の防衛関連の請け負い契約だ。米政府が外国人のラベルづけ作業員たちに、機密データの共有を許すことなどまずありえない。そこでワンは、コストが大幅に高くなる国内でAI関連労働者の大軍を構築している。
昨年、スケールAIはミズーリ州セントルイスに事業所を開設し、200人の人員を採用する計画を発表。その多くはデータのラベルづけ作業員になる。「僕には強く信じていることがふたつあります」とワンは語る。