このポリシーの変更は11月中旬に実施され、広告主は画像や動画上のわかりやすい場所で情報開示を行うことを求められる。
音声コンテンツも開示要件に含まれる。しかし、AIを用いた色調の補正や画像のサイズ変更、トリミングなど、広告の主張と関連のない部分でのAIの使用は除外される。
一方、YouTubeにアップロードされた有料広告ではない動画は、政治団体のコンテンツであっても情報開示を免除される。
有料の選挙広告を掲載したい広告主は、すでにグーグルの認証プロセスで基本情報の提出を求められている。グーグルは、今回の情報開示の義務づけにあたり、人的リソースと自動化ツールを用いて監視を行うという。
グーグルは、他の複数のテック企業らと並んで、誤情報への対応を非難されている。同社の傘下のYouTubeは今年6月、トランプ前大統領のように、過去の大統領選で不正があったなどと虚偽の主張をする動画の削除を中止すると発表し、反発を受けた。
YouTubeは「コミュニティを保護し、開かれた議論と討論の場を提供するためにこの決定を下した」と主張している。同社は2020年にも、選挙関連の誤情報への対処が遅いと批判されていた。
一方、X(旧ツイッター)は、AIで生成した広告コンテンツに関する具体的なガイドラインを設けていない。インスタグラムとフェイスブックを運営するメタも同様のポリシーは持っていないが、ディープフェイクに関連する禁止規定はある。
(forbes.com 原文)