隠語や絵文字で禁止用語を表す「アルゴスピーク」がソーシャルメディアで激増

Getty Images


また、ゲームプラットフォームでは、ユーザー名や「ゲーマータグ」にアルゴスピークを埋め込んで政治的発言をすることが頻繁にあるという。その一例として、1989年に中国・北京で起きた天安門事件の日を「6/4」という数字で表現していることが挙げられる。「中国では、この歴史的な出来事をめぐる言論はかなり統制されている」とハンナは指摘し「少し曖昧に見えるかもしれないが、言論が非常に統制されている社会でユーザーネームで発言することは実際にはかなり政治的に熱い発言になり得る」と語った。

また、間近に迫った米中間選挙前後にはオンライン上でアルゴスピークが増加するとTelus Internationalは予想している。

AIによるモデレーションを回避する他の方法としては、単語のスペルをわざと間違えたり「S」の代わりに「$」「O」の代わりに数字のゼロといったように、文字を記号や数字に置き換えたりする手法が挙げられる。例えば、TikTokでセックスについて話す人の多くは、代わりに「seggs」や「seggsual」と表現している。

アルゴスピークでは、絵文字は「本来想定していないものを表現するのに非常によく使われる」とハンナはいう。ある文脈では、それは意地悪であっても無害なことがある。英国では、エリザベス女王の死に対する比喩的な驚き、あるいは気難しい対応を表すものとしてカニの絵文字の使用が急増しているという。しかし別の場合では、より悪意に満ちている。ハンナによると、ある文脈では忍者の絵文字が黒人社会に対する軽蔑的な言葉やヘイトスピーチの代用として使われているのだという。

ソーシャルメディアを規制する法律はほとんど存在せず、コンテンツモデレーションは政府のテック政策の中でも最も議論の多い問題の1つだ。党派的な意見の相違が、AIが(コンテンツモデレーションを動かすような)倫理的で透明性のある方法で管理されることを目的とした法案「Algorithmic Accountability Act(アルゴリズム説明責任法)」などの立法を妨げている。

規制がないため、ソーシャルメディア大手と外部のモデレーション企業はこうした問題をほったらかしにしてきた。しかし専門家は説明責任について懸念を示し、こうした関係を精査するよう呼びかけている

Telus Internationalは人間とAIによるコンテンツモデレーションの両方を提供しているが、調査参加者の半数以上が、コンテンツモデレーションに人間が入ることは「非常に重要」だと強調している。

「AIは人間が拾えるものを拾わないかもしれない」とある回答者は書いている。そして別の回答者は「人間はフィルターを避けるのが得意だ」と指摘している。

forbes.com 原文

翻訳=溝口慈子

ForbesBrandVoice

人気記事