倫理面での批判
また、グーグルのAI部門には、同社がより慎重にならざるを得ない状況につながった他の論争もあった。2018年に、同社は国防総省と、AIを使ってドローン攻撃の精度を向上させる取り組み「Project Maven」の契約を結び「戦争ビジネスに加わるな」と訴える社員から強い反発にあった。これを受けて同社は契約の更新を停止し、テクノロジー開発を倫理的に導くことを目的とした「AI原則」を発表した。しかし、2019年には、グーグルが顔認識ソフトの精度を向上させるために、黒人のホームレスに対価を支払って顔のサンプルを集めていたことをNYTが報じ、さらに強い非難を巻き起こした。
また、2020年にグーグルは、同社のエシカルAIチームを率いたティムニット・ゲブル博士とマーガレット・ミッチェル博士らが、自社を批判する論文を書いた後に解雇したことでも非難された。グーグルリサーチの責任者のジェフ・ディーンは後に、この事件がグーグルのAI部門の信頼性を低下させたことを認めている。
「グーグルが、かつてChatGPTのようなツールで主導権を握る道を進んでいたことは明らかだ。しかし、以前の近視眼的決定が彼らを、あらゆる懸念につながる場所に追い込んでいる」とミッチェル博士はフォーブスの取材に述べた。
相次ぐAI人材の流出
2017年に、グーグルのAI研究所の幹部らは「Attention Is All You Need」というAIに関する画期的な論文を書き、トランスフォーマーと呼ばれるテキスト解析のための新しいアーキテクチャを提案していた。この仕組みは、ChatGPTのようなジェネレーティブAIや、グーグル独自の大規模言語モデル「LaMDA」の基礎となった。しかし現在は、この論文の共著者8人のうち、1人を除いて全員がグーグルを退社している。6人は自分の会社を設立し、1人はOpenAIに参加した。論文の著者の1人で、OpenAI のライバル企業とされる「Cohere」のCEOであるエイダン・ゴメスは「グーグルの環境は自分には過酷すぎた」と語った。
「グーグルのような巨大企業の内部では自由に研究ができない。根本的な企業構造がそれをサポートしていない。だから、外に出て自分でやるしかないんだ」と彼はフォーブスに語った。
一方、グーグルが2021年のI/Oでデモを行ったLaMDAは非常にうまく機能したが、このプロジェクトに携わっていたエンジニアのブレイク・ルモワンは後に、このロボットが感覚を持ち、魂を持っていると主張した後に同社を解雇された。