ジェームズ・ガーバートはトランスユニオンのコミュニケーションソリューション担当上級副社長である。
2026年、特に金融セクターのビジネスリーダーたちは、生成AIによって形作られる、ますます脅威を増す詐欺の状況に直面している。実際、デロイトの推計によると、米国の銀行における詐欺による損失は2023年の123億ドルから2027年には400億ドルに増加すると予想されており、これは主に生成AIの進歩によるものだ。
また、連邦準備制度理事会でのAIの経済的・社会的影響に関するプレゼンテーションで、OpenAIのCEOであるサム・アルトマン氏は差し迫った危機について警告し、「現在は音声通話だが、すぐに現実と区別がつかないビデオやFaceTimeになるだろう」と述べた。ディープフェイクやなりすまし通話に加えて、詐欺師はAIを使って規制や検出方法を回避するために素早く戦術を変化させることもでき、連邦通信委員会(FCC)などの規制当局は防御的な立場に置かれている。
ある程度の希望はある。AIは金融犯罪の脅威を増大させるが、同時にそれらの犯罪と戦う可能性も秘めている。以下は、金融サービス企業がAIを活用した次世代の詐欺に備えるために取るべき5つのステップだ:
1. AIが話し始める前に不正な通話をブロックする
音声生体認証だけでは、なりすまし通話を行う詐欺師を検出するには不十分になっている。企業は多要素音声認証に目を向けており、音声生体認証とPIN、セキュリティ質問、行動生体認証などの他の認証形式を組み合わせて、より強力な防御を構築している。この多層的なアプローチにより、詐欺師が不正アクセスを得ることが著しく困難になる。
同様に重要なのは通話認証だ—従業員や顧客に到達する前に、着信通話の発信元と完全性を確認する。基本的な検証を超えて、企業はコンテキストを考慮した認証—誰が電話しているかだけでなく、なぜ、いつ、どこからかを評価するシステム—を検討できる。例えば、CFOを名乗る通話が営業時間外に未確認のデバイスから入ってきた場合、システムは手動レビューのためにフラグを立てることができる。
さらに、通話認証を顧客関係管理(CRM)システムと統合することで、既知の顧客の音声プロファイルが過去のパターンと一致しない場合にリアルタイムのアラートを発することができる。
2. 自動音声通話とデバイスレベルのリスクを軽減する
自動音声通話(ロボコール)は依然として持続的な脅威であり、AIで生成された詐欺を大規模に配信するために使用されることが多い。しかし、Juniper Researchによると、ロボコール対策ツールにAIを組み込むことで、不審な通話パターンや行動をより迅速に特定できる。大量の通話、特定の電話番号からの通話、特定のIPアドレスからの通話を検出できるリアルタイムモニタリングに加えて、ベンダーはAIの予測能力を使用して音声チャネルへの新たな脅威を特定し、業界が詐欺師に追いつくだけでなく、将来の不正行為を積極的に防止できるようにする。
企業はなりすましやハイリスクの通話をフィルタリングするソリューションに投資できる。同時に、デバイスレベルのリスク評価が不可欠になりつつある。企業は発信者のデバイスがジェイルブレイク(脱獄)されているか、古いか、侵害されているか—認証をバイパスするために悪用される可能性のある要因—を評価する。通話メタデータとデバイスインテリジェンスを組み合わせることで、音声インタラクションを信頼するかブロックするかについてリアルタイムの判断が可能になる。
3. AIを検出するための自動化を導入する
現状はこうだ:合成音声には合成的な防御が必要である。実際の詐欺シナリオを模倣する合成データを作成することで、銀行はAIシステムを訓練して新たな脅威をより適切に検出し対応できるようになる。
銀行は、取引データ、顧客行動、既知の詐欺事例など、手元にある膨大な量の過去のデータを活用して、高度な機械学習モデルを訓練し、新たな詐欺手法を特定できる。さらに、AIを活用した詐欺検出ツールは、ピッチ、リズム、メタデータを分析して、リアルタイムでディープフェイク音声を識別できる。
AIシステムはまた、ディープフェイクで生成された音声に存在する微妙な不整合や合成マーカーを識別するよう訓練され、詐欺的な通話が消費者に届く前に検出する。さらに、最新の音声生体認証システムはリアルタイムの生体検出を組み込んでおり、音声が生きた人物からのものか録音されたものかを判断するために音声パターンを分析する。
AI検出ツールは現在、地域のアクセント、感情的なトーン、多言語音声など多様なデータセットで訓練されており、企業のユースケース全体で効果を維持している。もちろん、判断を下すためには人間をプロセスに組み込むことが重要だ。
4. 意識の文化を構築する
技術だけでは音声詐欺を止められない。人間の意識が重要だ。FBIは詐欺師がAIで生成された音声を使って愛する人や信頼される当局者になりすますケースが増加していると報告している。シナリオベースのトレーニングや経営幹部やコンタクトセンターのエージェント向けのディープフェイクシミュレーションを含む教育プログラムは、組織がAI詐欺に対処するためのポリシーを形成するのに役立つ。
5. 音声データとプライバシーを保護する
音声データを金融データや健康データと同じ厳格さで扱う必要があることがますます明らかになってきている。音声録音は貴重な資産であり、潜在的な責任でもある。不適切に扱われた音声データは攻撃者に悪用されたり、さらに悪いことに規制上のペナルティを引き起こす可能性がある。すべての音声インタラクションに対して、安全な保存、暗号化、アクセス制御に投資することは良い考えだ。
リスクからレジリエンスへ
AI音声詐欺はもはや将来の脅威ではなく、現在の現実だ。合成メディア、ロボコールインフラ、デバイスの脆弱性、ソーシャルエンジニアリングの収束により、企業リスクにとって完璧な嵐が生まれている。しかし、認証、検出、教育、ガバナンス、データセキュリティ、パートナーシップなど適切な分野への戦略的投資により、組織はリスクをレジリエンスに変えることができる。業界パートナーとの協力や機関間での詐欺シグナルの共有を通じて、金融サービス企業は集合的に詐欺師を出し抜き、より安全な金融エコシステムを構築できる。
これらの対策を取り入れ、詐欺検出業務にAIを統合する金融機関は、消費者を保護する義務を果たすだけでなく、差別化を図り、デジタルの未来で繁栄する態勢を整えることになるだろう。



