サービス

2024.02.24 18:00

グーグル、AIのGeminiが生成した「歴史的に不正確」な画像を謝罪

Jonathan Raa/NurPhoto via Getty Images

Jonathan Raa/NurPhoto via Getty Images

グーグルは、同社のAIサービス「Gemini」の画像生成機能でつくられた歴史的に不正確な一連の画像に対して謝罪した。広く共有された画像が右派のユーザーや億万長者であるイーロン・マスクなどからの反発を引き起こしたことを受け、グーグルはこの機能が「的外れなものだった」と述べている。
advertisement

グーグルは米国時間2月23日の午後のブログ投稿で、Geminiで生成されたいくつかの画像が「不正確であるのみならず、攻撃的でさえある」と認め、同社は「過去の画像生成技術に見られたいくつかの罠」を避けようとしていたことが理由だと述べた。こうした罠には、性的に露骨な画像、暴力的な画像や実在する人物の描写などの例も含まれる。

グーグルは、一部のGeminiの生成画像をめぐるオンラインでの激しい怒りの中で、米国時間2月22日に一時的にこの機能を一時停止した。マスクは、これらの画像が同社の「狂気的な人種差別、反文明的なプログラミング」を全面的に示していると主張し、ニューヨーク・ポストは、人種や性別を特定せずに提示されたプロンプトに応答して作成された黒人のバイキング、女性の教皇、女性NHL選手のいくつかの画像例を取り上げた。

グーグルは以前、この誤りが偏見との闘いや表現力を高める努力に起因することを認めていたが、謝罪の投稿の中で、同社はこの機能が「世界中から集まってくるすべてのユーザーに対してうまく機能する」ことを望んでいたと述べた。
advertisement

グーグルは「Geminiが多様な人々を表示するように調整しましたが、明らかに表示すべきではない範囲を考慮できていませんでした」とし、AI画像ジェネレーターが意図したよりも「はるかに慎重になってしまった」ために「ありふれたプロンプトを、誤って多様性を考慮すべき敏感な内容として解釈してしまった」と述べた。

またグーグルは「たとえばサッカー選手や犬の散歩をしている人の画像を得ようとする場合には、多様な人の画像を受け取りたいかもしれない」と述べ「おそらく、ただ1つの民族(またはその他の特徴)の人の画像だけを受け取りたいわけではないだろう」と付け加えた。

グーグルは12月に、かつて「Bard」と呼ばれていた生成AIのGeminiを発表し「これまでで最も高性能で一般的なモデル」であり「最先端のパフォーマンス」を特徴とするプロダクトであると説明した。そしてグーグルは先月、OpenAIのDALL-EやMidjourneyなどのライバルたちに対抗するために、画像ジェネレーター機能を発表した。しかし、リリースから数日後には、オンラインに投稿されたいくつかの画像には、1800年代の米国上院議員の中に黒人女性がいたり、第二次世界大戦時代のドイツ軍の制服を着た黒人男性がいたりなど、プロンプトに対して歴史的に不正確な特徴を描写しているようにみえるものがあると、The Vergeが報じた。グーグルは米国時間2月22日に、この機能を一時停止し「この種の描写をただちに改善する」との声明を発表した。

米国時間2月22日の午後には、グーグルはまた別の論争に巻き込まれた。Gmailユーザーに宛てたとされるメッセージのスクリーンショットが出回り、そこではこの広く使われているEメールサービスの終了が示唆されていたのだ。この衝撃的な情報はデマであることが明らかになった後も、インターネットを騒然とさせた。グーグルは米国時間2月22日の午後、GmailのX上のアカウントで「Gmail is here to stay(Gmailはこれからも続きます)」と投稿しこの噂を否定したようだ。

SEE
ALSO

テクノロジー > AI

イーロン・マスク、グーグルのAIを「非常識で人種差別的」と非難 検索も攻撃

forbes.com 原文

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事