ChatGPTは「真の知性ではない」?
しかし、Googleはこれらの成果をChatGPTのような誰でも利用できる形で公開してこなかった。その理由は、大きく二つある。内容の信頼性と、Googleのビジネスモデルである。まず、Transformerに基づく言語モデルは、ChatGPTについて知られている通りとんでもないデタラメを返す場合がある。FacebookのAI研究所の創設者でありチーフサイエンティストのヤン・レカン博士は、ChatGPTについて「真の知性ではない、なぜなら推論や常識といった知性の要素を欠いているただの確率モデルだからだ」と述べている。
これはその通りで、GPT-3を含むTransformerを用いた言語モデルはトレーニングデータとして提供されたテキストの統計的な表現である。そのデータの内容が全て真実だとは限らない。また、仮に全てのデータが正しい内容だったとしても、モデル化およびコンテンツの生成の過程で生じる誤りを訂正する仕組みを、モデル自体は含まない。
Googleらは「責任あるAI」という表現で、AIが偽情報や差別的な内容などの拡散に手を貸さないよう、LaMDAなどの公開を遅らせてきた。GoogleやMicrosoftも、大規模言語モデルの上に、何らかの知識ベースなどを用いて内容の正当性を確認する仕組みを入れているはずだ。例えばBingの場合には、ウェブページの内容を用いて応答の内容を調整しているだろう。
Googleが対話型AIの大規模な提供に消極的だったもう一つの理由は、技術上というよりもビジネスモデル上の理由だと考えられる。
Googleの収益のほとんどは、検索と連動した広告である。Googleのビジネスは、検索した利用者が広告のリンクをクリックして広告主のウェブサイトに遷移してくれることによって発生している。ところが、対話型AIが情報検索の主流となれば、検索のかなりの割合がAIの応答で事足りてしまう。すると、広告収益が発生しなくなる。
Bingの場合にも、ウェブ検索の結果とチャットの応答を組み合わせ、参照しているウェブページへのリンクを表示する。ウェブコンテンツの提供者からすれば、トラフィックであれ広告収益の分配であれ、十分な利益の還元がなければそもそも検索およびAIへのデータ提供を拒否するだろうから、どのような形での還元が適切なのか、ビジネスモデルの試行錯誤が行われるだろう。