守りを固める──毒をもって毒を制す具体例
ディープフェイクや合成IDが蔓延するなか、AIエージェントと人間を区別する継続的検証はますます不可欠なものになりつつある。すでにいくつかのAI駆動ソリューションが、ディープフェイク攻撃を阻止する目的で導入されている。とりわけ金融取引においては、一般的な多要素認証に加える追加のセキュリティレイヤーとして生体認証ツールが有効だ。
生命検出
自撮り写真や動画に生命の兆候があるかどうかを分析するAIシステム。物理的実体性、行動的証拠、微小表情といった情報に基づき、ユーザーが本物の人間であるか、ディープフェイクであるかを判断する。Intel(インテル)のFakeCatcher技術など、いくつかの企業がシステムの有効性を見事に示している。こうしたツールは、人物の顔を映した部分の画素を分析し、本物の人間であれば血流変化によって生じる、不随意のわずかな皮膚紅潮を検出する。AI生成アバターの場合、脈拍がないのでこうした変化は見られない。
リアルタイム個人認証
この防御メカニズムは概して、生命検出技術をベースにしつつ、その他の認証段階を組み込んだものだ。具体的には、オンラインポータルへの個人情報の入力、身分証を利用した認証、ほかのデータベースとのクロスリファレンスなどがある。
音声分析
コールセンターや音声のみのチャネルにおいては、音声分析が不可欠だ。ディープフェイク音声は、CEOの声色や抑揚を完璧に再現して、不正送金を承認させる。Pindrop(ピンドロップ)などの企業は、AIを利用して1400以上の音声的特徴を分析するツールを提供している。発言内容だけでなく、デバイスの「音響指紋」、ネットワーク、さらには微細な「生命感」さえも分析対象となる。本物の人間の声帯から発せられた音声には、特有の生命兆候があり、AIモデルは今のところ、これらを再現できない。
行動分析
AIは、ユーザーの行動に基づいて詐欺を検出することさえできる。これには、タイピング速度などの動作をベンチマークとしたり、人間同士のやりとりと「動作のコピー&ペースト」を比較したりといった手法が用いられる。
適応的認証
多層的セキュリティシステムにおいては、さまざまなリスク要因を評価し、追加認証を要請する方法がとられる。ユーザーのIPアドレスやデバイスタイプを分析することで、本人かどうかを区別する手がかりが得られ、必要に応じて安全上の理由による追加認証が求められる。
プラットフォーム統合
ここまでに取り上げたような検証ツールが、私たちが日常的に利用するプラットフォームの内部に組み込まれることは、決定的な技術革新だ。例えば、Reality Defender(リアリティ・ディフェンダー)という企業は、ZoomやマイクロソフトのTeamsといったプラットフォームに統合可能なAPIを提供している。このツールは、ビデオ通話のバックグラウンドで動作し、リアルタイムで「真実性スコア」を計算して、合成アバターの参加者が検出された場合、ほかの参加者に警告するか、セッションを強制終了する。こうしたツールがあれば、アラップのような被害を直接阻止することができる。


