生成AIの基盤となる大規模言語モデル(LLM)の最もよく知られた欠陥の1つは「幻覚(ハルシネーション)」と呼ばれる誤った答えを導いたり、事実と異なる偏った内容や有害な情報を作り出す傾向があることだ。しかし、ゲイツは、そのような誤りの原因となる、誤った学習データを意識したAIツールを構築することが可能だと考えている。
「現状のAIモデルは、学習に使用されたテキストに組み込まれた偏見を受け継いでいる」とゲイツは述べている。「しかし私は、時間が経てば、AIモデルが事実と虚構を区別できるようになると楽観している。1つのアプローチは、人間の価値観やより高度な推論をAIに組み込むことだ」
そのような観点から、ゲイツは、ChatGPTを生んだOpenAIが、人間からのフィードバックを通じて彼らのAIモデルをより正確で安全なものにしようとしていることを例に挙げた。しかし、ChatGPTは、最新バージョンの言語モデルのGPT-4をリリースした後も、バイアスや不正確な回答に悩まされている。AI研究者は、このチャットボットがジェンダーのステレオタイプを強化していると述べている。
ゲイツにはChatGPTを持ち上げようとする理由がある。彼が創業したマイクロソフトは、OpenAIに数十億ドルを投資している。ゲイツの保有資産は、4月下旬のマイクロソフトの決算説明会の後に、約20億ドル増加した。
イーロン・マスクを含む1000人以上のAI分野のエキスパートは、3月下旬の公開書簡で、強力なAIツールの開発の一時停止を呼びかけた。しかし、ゲイツはこの書簡に反発し、開発の一時停止が問題の解決につながらないと主張した。
悪用を阻止する努力
彼は、政府や企業がAIの悪用を検知し、それに対抗するために、新たな規制を設けて、先進的なAIツールの開発を継続するべきだと主張した。「サイバー犯罪者が新たなツールを作るのを止めることはないだろう。それを阻止する努力も同じペースで続ける必要がある」と彼は書いていた。しかし、AIツールを他のAIツールの欠陥に対処するために利用できるというゲイツの提案は、少なくとも現時点では、現実的ではないかもしれない。例えば、さまざまな生成AIの検出ツールや、ディープフェイクを見抜くツールが登場しているが、そのすべてが常に目的のコンテンツに正しくフラグを立てられるわけではない。
生成AIはまだ始まったばかりの技術であり、社会への意図しない影響を抑制するために、政府機関や企業による監視と規制が必要だとゲイツは述べている。
「我々は今、AIの時代にいる。速度制限やシートベルトができる前の不確実な時代に似ている」とゲイツは書いている。
(forbes.com 原文)