ユーロポールは3月27日に公表した報告書「ChatGPT - the impact of large language models on law enforcement(大規模言語モデルが法の執行に与える影響)」の中で、詐欺やサイバー犯罪、偽情報の拡散にLLMが悪用される危険があると述べ、法執行機関にとっての見通しが「厳しい」と指摘した。
リリース後の2カ月で1億人のユーザーを獲得したChatGPTのようなツールは、試験のカンニングからより深刻な犯罪に至るまで、あらゆる分野で使用されている。
ChatGPTは、フィッシング詐欺に有効なツールであるとユーロポールは述べており、詐欺犯らがLLMを用いて特定の個人やグループになりすます危険があると指摘した。
さらに、LLMは政府のプロパガンダや偽情報を容易に作成可能にし、高度なテクノロジーの知識を持たないサイバー犯罪者でも、悪意のあるプログラムを書けるようにするとユーロポールは述べている。
ChatGPTの開発元のOpenAIは、最新バージョンのGPT-4に、より多くの安全策を盛り込んだと述べているが、ユーロポールは、その対策が十分ではないと述べている。
「GPT-4においては、有害なテキストデータの生成が抑制されるはずだったが、調査の結果、従来と同じ問題が存在することが判明した。また、場合によっては以前のバージョンよりも危険度が増したことが確認できた」と、ユーロポールは述べている。
今回の報告書は、法執行機関が問題意識を高め、外部のテクノロジー企業と共同で問題に取り組むよう促している。さらに、LLMがオンライン犯罪に限らず、さまざまな犯罪で悪用される危険があることを認識すべきだと述べている。
「ChatGPTを使う犯罪者たちは、言語や文化の壁を乗り越えて、あらゆる組織や企業からデータを収集し、これまでにないスピードで詐欺メールを作成する。ChatGPTが作成したフィッシングメールを見破るのは非常に困難だ」と、セキュリティ企業MyCena Security Solutionsの担当者は述べている。
(forbes.com 原文)