10月6日、グーグル・ブレインの研究者Ian Goodfellow氏は、自身のツイッターアカウントに「CycleGAN Face-off 直播換臉」というタイトルの動画をシェアした。画面が2分割されたその動画には、全身に入れ墨の入った強面の男性と、モデルのような色白の女性が映し出されていた。一見、ユーチューバーの生放送対談のようにも見える同動画だが、目を凝らして眺めていると、徐々にあることに気付く。それは、男性と女性の動きがほとんど同じなのだ。
同タイトル中の「CycleGAN」は、最新のディープラーニング技術である「敵対的生成ネットワーク(Generative adversarial networks=略称GAN)」の一種。また中国語の「直播換臉」を直訳すると「リアルタイム顔面移植=Face Off」となる。Goodfellow氏がシェアした動画は、AIを使用して、男性から女性に、また女性から男性に、それぞれの動きをリアルタイムで「移植」したものだったのだ。
タイトルの意味を理解して動画を注意深く見てみると、ところどころコピーしたかのような違和感がある。が、もし仮に事前情報がないまま片方の動画だけを見れば、少し画質の荒い「本物の動画」として錯覚してしまうようなクオリティーだ。
今年に入って、この手の「フェイク動画」の研究結果が、世界各地から報告され始めている。今年7月には、米ワシントン大学のAI研究者が、米オバマ前大統領が過去に行ったスピーチ動画を、まったく別のオバマ氏本人の動画に重ねるという研究結果を世に送り出した。当時公表されたのは、オバマ大統領の音声や口の動きをAIに学習させ、他の動画に模写するという技術だった。
それから数か月も経たないうちに、今回、Goodfellow氏が紹介したような「リアルタイム移植技術」が公開されたという経緯がある。実在しない動画を作り出す、すなわち動画を「生成」するAI技術は、日々、人々の想像を超えるスピードで発展を続けているようだ。
一方、動画の「認識」という側面でも、AI実用化への期待は大きい。例えば韓国では、学校でのいじめを防止するために、AIを搭載した「スマート監視カメラシステム」の導入を進めるべきだという議論が一部浮上している。9月、韓国では激しい校内いじめの様子がSNSを通じて拡散。自治体や学校側の対応能力不足が社会問題化した。学校という閉鎖空間で起きているすべての出来事を、人間が把握するにはそもそも無理がある。そこで、動画内の動きから対象の行動を割り出す、AI監視カメラを設置すべきというのだ。
韓国の自治体や警察では、鉄道や陸橋における自殺、海岸事故や犯罪など、多様な課題を解決するために、AI監視カメラシステムの導入実験がすでに始まっているが、その適用範囲はさらに広がっていくかもしれない。
動画を完璧に生成・認識するAIが発展すれば、新たなビジネスチャンス、もしくは社会的課題を解決する新たなテクノロジーツールとして重宝されることは間違いない。同時に動画という領域における真実性や、行動の自由は少しずつ失われていくかもしれない。