テクノロジー

2018.02.15 11:00

AIを使った「フェイク動画」や「なりすまし詐欺」が社会問題に

Casimiro PT / shutterstock.com

Casimiro PT / shutterstock.com

先端テクノロジーが、他の産業に先駆けて実用化される分野がいくつかある。もっとも顕著な分野としては、「軍事」と「犯罪」を挙げられるだろう。例えば、空飛ぶ自律型ロボットとしてここ数年普及が進むドローンは、もともと軍事用途で開発されたものであり、各国の法整備が整う以前から、世界のアウトローたちによって麻薬密輸、もしくは刑務所への物品輸送などに頻繁に使用されてきた。
advertisement

軍事や犯罪以外にも、先端テクノロジーに敏感な業界がある。「アダルト産業」だ。先日、日本の某大手アダルトDVDメーカーの関係者と話をしていたところ、「日本のVR関連の産業で最も堅実な利益を生み出しているのは我々の業界」と内情を語っていた。VRテクノロジーはゲームや産業用途で使われ始めているが、「右肩上がりのビジネスとして確立できているのはアダルト業界だけ」というのがその関係者の説明だ。

技術トレンドの最先端を行く人工知能に関しても、事情は同じようだ。世界各国では、犯罪やアダルト業界(軍事は説明するまでもない)において、AIの活発な“実用化”が進んでおり、小さからぬ社会問題になっている。

今年2月上旬頃、米最大のポルノサイト「Pornhub」は、「人工知能で生成されたフェイク動画を削除する」という自社の方針を告知した。これは、最先端のAI技術を駆使すれば、画像のみならず、動画さえ生成できてしまうという現状に対応するための措置だと考えられている。
advertisement

「我々は合意なしに作成されたアダルトコンテンツを許さない(中略)発見次第、すべてのAI合成映像を削除する」(Pornhub)

昨年、コミュニティーサイト「reddit」では、deepfakesというIDを持つユーザーによって、動画を合成できるAIオープンソースが公開された。結果、そのAIによって女優ガル・ガドット、エマ・ワトソンなどのフェイクポルノ動画が作成され、世界中に拡散するという事件が起きてしまった。また韓国でも最近、芸能人の顔を合成したポルノ動画が流出。後にAIを使って生成したものだということが明らかになり、社会に大きな衝撃を与えている。

合成したポルノ動画を拡散させるという行為は非常に悪質な犯罪だが、今後さらなる“応用例”が生まれてくる可能性もある。例えば、オレオレ詐欺や、何らかの政治的目的、経済的利害関係を持ったフェイク動画が量産されることも十分に考えうる。そうなれば、さらなる社会的混乱は必至だ。

実際、中国で起きた事件からはその予兆が垣間見える。今年1月、デートアプリを運営する企業群が、公安警察によって大々的に摘発された。罪状は「AI・ロボットを使って詐欺を行っていた」というもの。お金を使ってアプリを利用していた顧客は、異性とコミュニケーションを取っているつもりだったが、実はその相手がAIだったというのだ。一連の“AIデートアプリ詐欺”による被害者の数は数十万人規模で、被害額は10億元(約170億円)に達したという。中国公安側は、運営関係者600人以上を逮捕している。

世界のIT関連調査企業は、2018年はAIを使った詐欺やハッキングが増える年になるのではないかと予想している。実例がぽつぽつ生まれているだけに、対岸の火事と決め込まず、警戒感を高めていく必要がありそうだ。

文=河鐘基

タグ:

advertisement

ForbesBrandVoice

人気記事