サービス

2023.10.26 13:00

グーグル、不適切なAIコンテンツの通報機能をAndoridアプリに義務づけ

Shutterstock.com

Shutterstock.com

グーグルは、Google Playストアに掲載されるAndroidアプリの開発者に対し、人工知能(AI)が生成した詐欺的、もしくは不適切なコンテンツをユーザーが通報できる機能の設置を義務づけようとしている。この動きは、AIを用いたアプリが不適切なコンテンツを掲載することへの危機感の高まりを受けてのものだ。

Google Playストアは、来年1月31日に施行されるガイドラインで、AIを用いてコンテンツを作成できるアプリに、ユーザーが問題のあるコンテンツにフラグを立てられる機能の設置を義務づける。アプリの開発者は、ユーザーからの報告をもとに、アプリ内のコンテンツをフィルタリングし、対処することになるとガイドラインは述べている。

生成AIを用いたチャットボットとAI画像ジェネレータは、このポリシーの対象となる。しかし、AIが生成したコンテンツを掲載するのみで、ユーザーがAIを用いてコンテンツを生成することを許可しないアプリは対象外になる。

グーグルが定めるポリシー違反のAIコンテンツの例としては、相手の同意を得ていない性的なディープフェイク(もしくは実在する人物を用いて生成した極めて精巧なフェイク画像)、詐欺や欺瞞的な選挙キャンペーンに使用される実在の人物の音声や動画などが挙げられる。

グーグルはまた、AIが生成したコンテンツを含む選挙関連の広告について、AIの使用を「明確かつ目立つかたち」で開示することを近日中に義務付けると、先月発表していた。

グーグルの親会社アルファベットの前CEOのエリック・シュミットは6月「生成AIによる偽のコンテンツがSNSで広まれば、2024年の選挙は大混乱に陥る」と警告した。彼は、メタやX(旧ツイッター)のような企業のモデレーションの役割の削減が、大きな問題だと指摘した。

グーグルは、より厳格なAIルールの推進を主導する大手のテクノロジー企業の1社だ。アップルは、生成AIの利用がますます物議を醸しているにもかかわらず、自社のアプリストアのガイドラインにAIやチャットボットの使用を制限するポリシーを、まだ盛り込んでいない。

forbes.com 原文

編集=上田裕資

タグ:

advertisement

ForbesBrandVoice

人気記事