他人の顔でポルノを作る「ディープフェイク」の危険な未来

vchal / shutterstock.com

このところネットで話題になっているのが、ディープフェイク(Deepfake)と呼ばれる動画だ。ディープフェイクは動画の登場人物の顔や姿を、無関係な第三者のものと合成して作成した動画を意味する。

ディープフェイクの作成にはエヌビディアのGPUを搭載した高性能なコンピュータなどが必要だ。エヌビディアはディープラーニングを活用したフェイク画像生成に関する技術論文を公開している。

その論文では、有名人の写真からコンピュータが目鼻立ちや背景、色などの情報を取得し、新たなイメージを作成する手順が解説されている。この技術は、表面上は単なる面白い遊びにも思えるし、先進的なテクノロジーの新たな活用事例ともいえるだろう。

しかし、今問題になっているのは、この技術を用いて有名人、もしくは無関係な一般人の顔をポルノ動画に合成する行為が広まっていることだ。掲示板のRedditでは、別れた恋人の顔をポルノムービーと合成したといった話題が飛び交っている。

ネットを検索すれば、映画スターや有名ユーチューバーの顔を合成したハードコアポルノを発見することも可能だ。このような行為に自分の顔を利用された人の気持を考えると、いたたまれない気分になる。

女優のジェニファー・ローレンスはかつて、ヌード画像の流出被害に遭った際に次のような主旨の発言をしていた。「これは性犯罪であり、うんざりする行為だ。画像を掲載したサイトはプライバシーを侵害しているだけでなく、そこから利益を生んでいることも許せない」

ローレンスの被害は画像に関わるものだったが、ディープフェイクに関しても彼女が同様な意見を持っていることは容易に想像できる。ディープフェイクでポルノ動画を作成する人々は、他人の顔を無許可であからさまな動画に合成しているのだ。

今後はさらに酷い事態の発生も予想できる。デートを断られた少年が、相手の少女の顔をポルノ動画に合成して友人たちに送りつけるような事件も発生するかもしれない。また、ディープフェイクのポルノを用いて脅迫が行われる可能性もある。こういった行為を防ぐのは、ほかの多くのネット上の事件と同様にかなり難しいものになるだろう。

筆者はテクノロジーの進化に意義を唱えるつもりはないが、技術の進化はときに、我々の想像するレベルを超えている。ディープフェイクのポルノを作成したり、友人とシェアしようと考えている人は、まず考えてみてほしい。そこには被害に遭って苦しんでいる人たちがいることを。

編集=上田裕資

タグ:

ForbesBrandVoice

人気記事