ソーシャルメディアのユーザーは、デリケートあるいはルールを破る可能性のあるコンテンツを投稿する際に、人工知能(AI)を活用したアプリのモデレーションによる検出を避けるために隠語、絵文字、意図的なタイプミスといった、いわゆる「アルゴスピーク」を使用するようになっている。TikTokを含むほぼすべての主要なソーシャルメディアプラットフォームに人間とAIによるコンテンツモデレーションサービスを提供しているカナダ企業Telus InternationalでAIデータソリューションを統括するシボーン・ハンナは「キャンピング」はこのように使われるようになった言い回しの1つにすぎないと指摘する。「アルゴリズムが中絶への言及を拾うかもしれないという懸念があったからだ」とハンナはいう。
Telus Internationalが先月、米国で1000人を対象に行った調査のデータによると、米国人の半数以上が極端な政治的、文化的、世界的な出来事があるとアルゴスピークが増加したと答えている。また、ソーシャルメディアやゲームサイトでは、米国人のほぼ3分の1が人種差別的、性的、自傷行為に関連する禁止用語を回避するために「絵文字や代替表現を使ったことがある」と答えている。ハラスメントやいじめなどのヘイトスピーチを禁止する規則を回避するためにアルゴスピークが最もよく使われており、暴力や搾取に関する規則がそれに続くとハンナは話す。
随分前には「pr0n(ポルノの隠語)」やナスの絵文字が使われていた。このように進化し続ける回避の手法はテック企業や、テック企業からコンテンツの取り締まりを請け負うサードパーティ企業にとってますます大きな課題となっている。機械学習はヘイトスピーチのようなあからさまに暴力的なものを発見することはできる。しかし婉曲的な表現に含まれている意味合いや、ある人にとっては無害に見えても別の文脈では悪意のある意味を持つフレーズを読み取ることは、AIにとってはるかに困難なものだ。