SEALと呼ばれるこのラボは、同社の顧客がAIの導入にともなうリスクを知るためのプロダクトを構築するほか、ソフトウェアの欠陥や偏りをローンチ前に発見するためのレッドチーム演習を実施する。このラボの業務には、大規模言語モデル(LLM)を用いた自動評価システムの開発や、潜在的なAIの害に関する調査が含まれる。
SEALを率いるのは、元グーグルの研究者でチャットボットBard(バード)のリーダーを務めていたサマー・ユエ(Summer Yue)だ。彼女は、グーグル時代に、人間によるフィードバックを用いた強化学習(reinforcement learning from human feedback)を意味する「RLHF」の技術に取り組んでいた。RLHFは、人間の指導と機械学習の両方を含むAIをトレーニングするための技術だ。
スケールAIの新たな取り組みは、OpenAIのChatGPTやグーグルのBardのような生成AIサービスが爆発的に普及し、AIの安全性をめぐる激しい議論が起きたことを受けて生まれたものだ。
バイデン大統領は先日、AIに関する大統領令を発表し、このテクノロジーを開発する企業に対する安全基準を設けた。例えば、国家安全保障上のリスクをもたらす可能性のあるAIモデルを開発する企業は、政府にそれを開示するよう求められる。一方、英国では、スナク首相がAI安全サミットを開催してイーロン・マスクを含む業界のリーダーらを招き、このテクノロジーの未来を議論した。
「LLMアプリケーションを展開するすべての企業や政府は、今後導入されるであろう標準や規制を採用し、遵守する必要性に直面している」と、スケールAIはSEALを発表したブログで述べている。
現在26歳のアレクサンダー・ワンが2016年に共同創業し、CEOを務めるスケールAIは、創業当初に、自動運転テクノロジーを開発する企業が学習に用いるデータのラベルづけを支援した後に、物流やEコマース、防衛関連などの分野に業務を広げていった。
スケールAIはまた、東南アジアとアフリカに十数の施設を開設し、数千人のラベルづけ作業員を育成する企業のRemotasks(リモートタスクス)の運営も手がけている (情報開示:ワンは、現在計画中のこの企業の売却を完了させた後に、フォーブスの取締役に就任する予定だ)。
ワンは、スケールAIがバイデン政権によるAIの安全・安心に関する自主的なコミットメントに署名した後の9月に「LLMに関する知識と理解を深め、その能力を向上させるためには、その長所と同様に短所を理解しなければならない」と書いていた。
「テクノロジー開発の急速なペースを考えると、テック業界はこのような積極的な対策を講じていかなければならない」と、ワンは述べていた。
(forbes.com 原文)