筆者は、この恐ろしい話を聞いてショックを受けたが、もしも犯人が彼の妻の声のクローンを作成していたらどうなっていただろう。彼は妻が本当に誘拐されたと思い込み、身代金を支払っていたかもしれない。
このような犯罪の可能性を考えると、人工知能(AI)で作成したコンテンツに関する最も重要な課題の1つは、そのコンテンツが本物であることを証明する機能の導入かもしれない。先日は、AIの第一人者とされるジェフリー・ヒントンが、このテクノロジーが人類に与える悪影響を憂慮してアルファベットを退社した。彼は、CBSニュースに対して次のように述べている。
「私は、最近まで汎用人工知能(人間が実現可能なあらゆる知的作業を理解・学習・実行することができるAI)が誕生するのは、20~50年先のことだと考えていたが、今では20年以内に完成すると思うようになった。これは問題であり、我々はこの状況にどう対処するかを考えなければならない」
ヒントンは、このテクノロジーを管理する方法を人々が学ぶことがより重要だと指摘している。テック業界や政府のリーダーの多くも、AIが人類に重大な結果をもたらすことを懸念している。
ニュースサイト9to5macは、ボイスクローニング(人の声の複製)について次のように書いている。「AIの声を使った詐欺は昔からあるが、近年は説得力が格段に増している。多くの場合、犯罪者はターゲットが愛する人の声を使って、緊急事態を装って金銭を要求し、中には身代金を要求するケースもある」
AIを使った声のクローンの作成ツールは安価で入手可能なため、犯罪者に悪用されやすい。彼らは、SNSから音声サンプルを入手しており、人々がオンラインで音声を共有すればするほど犯罪者にクローンを作成されるリスクが高まることになる。
米大統領選でAIが悪用される
クローンやなりすましの問題は、次の大統領選挙でさらに悪化することが予想される。犯罪者がAIを使って政治家や政治アナリストだけでなく、一般市民のクローンを生成し、デマを広める恐れがある。彼らの目的は、対立を煽ったり、候補者に選挙にダメージを与える発言をさせることにある。また、近年急速に普及した顔認証などの生体認証の仕組みが、AIを用いたなりすましで突破される可能性もある。2020年に、Security Magazineは「サイバー犯罪者が、顔認証の実装チェーンにおける弱点を探し出し、悪用することは間違いないだろう。残念ながら、これは容易に行うことが可能だ」と指摘していた。
ここで紹介したような事例を考えると、AIが作成したコンテンツを判別するためのウォーターマークやデジタル識別子の導入が急務だと言える。筆者は、これらの開発プロジェクトを少なくとも4件把握しているが、それらがAIのスクリーニングに使えるようになる時期はまだ不透明だ。
しかし、何らかのウォーターマークを適用しない限り、AIを使って虚偽または不正確なコンテンツが大量に作り出される恐れがある。このことは、我々の生活はもちろん、世界中の選挙に多大な影響を及ぼす可能性がある。
(forbes.com 原文)