現在、世界各国でディープフェイクの問題が取り沙汰されて久しいが、そのうち用途として最も割合が高いのが「ポルノ動画」の作成だ。前述の国内ケースも、女性芸能人のデータを合成し、大量のアダルトビデオを違法に公開したことが逮捕の理由となった。
オランダのサイバーセキュリティ企業・ディープトレースは、2019年にディープフェイクに関する統計を発表している。同社が確認したディープフェイク動画は14678件(当時)で、そのうち96%はポルノとして消費されていたとする。ディープフェイクは登場当初、政治的悪用や詐欺犯罪用途で使われると懸念されたが、「実際に問題となったのはポルノだった」と、ディープトレース側は皮肉を込めて解説している。
過去には、ディープフェイクを使った詐欺事件なども実際に発生している。ただ大量のデータを処理する必要があるという特性上、リアルタイムで対話が必要な詐欺などに活用するには不向きという側面があるのかもしれない。仮に実行したとしても、映像が荒れたりすることは不可避で、どこかで勘づかれてしまうためそれほど被害が膨らんでいないとも予測できる。
むしろ最近では、ディープフェイクと同じ技法である「敵対的生成ネットワーク」(GAN)を使って生み出された「フェイク・フェイス」の方が、より脅威が大きいのではないかという指摘も増えてきた。こちらは、「実在しない人間の顔画像」をあたかも本物の画像ように生成する技術で、動画より“汎用性”が高い。
欧米圏では、「thispersondoesnotexist.com」というフェイク・フェイスを生成するサイトが立ち上がっている。URLをクリックしてサイトに飛ぶと、リロードするたびに次々と人間の顔が生成される。そのいずれも、この世に存在しない人々の顔である。
本物と疑いようのない人物が…。thispersondoesnotexist.comのウェブサイトより
仮にこの写真を、特定の政治的目的を実現しようとする者、もしくは詐欺を起こそうとする個人・組織がフェイスブックなどSNSで利用したらどうなるか。該当する人物が本当に存在するかのように振る舞い、言説やコンテンツが垂れ流すことで、人々の意志を恣意的に誘導することが可能となる。しかもディープフェイクよりタチが悪い点もある。それは、本人が実在しないだけに「責任を追及する主体」が存在しないことだ。誰の肖像権も侵害していない、すなわち被害者がいないため、摘発されることがとても難しくなる。
ここからは想像の域をでないが、この手の技術が“民主化”してしまった場合、ネット上における中傷攻撃の威力が最大化されてしまうことが危惧される。例えば、恨みを持った対象に対して、世間の多くの人がバッシングを浴びせているというフィクションを生み出し、意図的に精神を追い詰めることだってできよう。昨今、SNS上の誹謗中傷で自殺する芸能人が絶えないが、そういった悲劇がさらに助長されていくかもしれない。
AIが目まぐるしく発達するなかにあって、画像・動画、またネットに対するリテラシーの次元をさらに上げていくことは必須となるかもしれない。ここで言及できる論点のひとつは、もはや画像や動画は真実を運ぶメディアとして存在することができなくなるということ、もうひとつは「多数にみえる意見が多数の意見とは限らない」ということだ。
AIが生み出した洪水のような情報の中から何を選び取るのか。人間の能力が機械によってさらに試されようとしている。
連載:AI通信「こんなとこにも人工知能」
過去記事はこちら>>