Ofcomが主導した調査の結果、グーグルやマイクロソフトのBing、DuckDuckGo、Yahoo!、AOLといった主要な検索エンジンは、自殺や自傷行為に関連する有害なウェブページやその画像、動画への入り口として機能する可能性があることが示された。
研究者たちは、自殺や自傷行為に関連する一般的な検索クエリや、オンラインコミュニティがその真意を隠すために一般的に使用するワードのいくつかを入力し、検索エンジンから返された3万7000以上のリンクを分析した。その結果、検索結果の22%が、自殺、自殺願望のない自傷行為、摂食障害を、「称賛、賛美、指導」するコンテンツにリンクしていることがわかったという。
「検索エンジンは多くの場合、人々のオンライン体験の出発点であり、有害なコンテンツへのワンクリックの入り口として機能する可能性があることを、我々は懸念している」と、Ofcomのオンライン安全ポリシー担当者のAlmudena Laraは述べている。
Ofcomは今春、この問題に関する広範な協議を予定しており「検索サービスは、潜在的なリスクとその保護対策の有効性、特に子どもの安全をオンラインで守るための有効性を理解する必要がある」とLaraは付け加えた。
画像検索は特にリスクが高く、検索結果の半数が有害または過激な結果を返していた。また、ウェブページでは28%、動画では22%が同様の結果だったという。Ofcomによれば、自傷行為を賛美する画像コンテンツと、医療の文脈で共有される画像コンテンツを、アルゴリズムが区別するのは難しい場合があるという。
Ofcomは、今春以降に、検索サービスが子どもを適切に保護するための実際的な手順を定めることを目的とした「子どもの保護に関する実施規範」についての協議を開始する予定だ。昨年11月に発表された、大手のソーシャルメディア・プラットフォームを対象とした規範の草案には、児童性的虐待のコンテンツ(CSAM)を違法画像のデータベースと照合することや、CSAMをホストしていると特定されたURLを検出する自動化ツールを使用することが盛り込まれていた。
グーグルは調査結果に反論
一方、グーグルは、Ofcomの今回の調査結果が、同社の積極的なセーフガードを反映しておらず、検索でほとんど使用されていない用語を参照していると述べている。「当社は、専門機関や慈善団体と緊密な連携を取りつつ、人々が自殺や自傷行為、摂食障害に関する情報を求めて検索サービスを訪れた場合に、支援リソースのパネルをページのいちばん上に表示するようにしています」とグーグルの広報担当者は述べている。
「検索結果の露骨なコンテンツをフィルタリングするセーフサーチ機能は、18歳未満のユーザーにデフォルトでオンの状態で提供されています。さらに、自傷行為を写したあからさまなイメージにぼかしをかける機能は、すべてのユーザーにデフォルトでオンの状態で提供されています」と担当者は付け加えた。
一方、マイクロソフトは、有害なコンテンツやオンライン上の行為から子どもたちを保護する責任が、同社にあると述べている。「当社は、大手テクノロジー企業としての責任の重さを自覚しており、Ofcomと協力して、検索結果における有害なコンテンツに対処していきます」と同社の広報担当者は述べている。
(forbes.com 原文)