欧州委員会はまた、未成年者による不適切なコンテンツへのアクセスを防止するためにTikTokが使用している年齢認証ツールが、合理的かつ効果的なものかどうかを評価し、未成年者のプライバシーやセキュリティを高いレベルで確保するための「適切かつ相応」の措置を講じているかどうかを検証するとしている。
「未成年者の保護はDSAの最重要事項だ。TikTokは何百万人もの子どもやティーンエイジャーにリーチするプラットフォームとして、DSAを完全に遵守する必要があり、オンライン上の未成年者保護において果たすべき特別な役割を担っている」と欧州委員会で産業政策などを担当するティエリー・ブルトン委員は述べている。
TikTokは、DSAの下でより高い基準に従うことを要求される数多くのハイテク大手の一社とされている。昨年11月、アムネスティ・インターナショナルは、TikTokが子どもたちをうつ病や自殺に導くようなコンテンツに向かわせ、精神衛生上の問題を悪化させていると警告した。
「大手ソーシャルメディアが子どもや若者に与える精神衛生上の影響は、長年の懸念となっている。2023年のアムネスティ・インターナショナルの調査によると、TikTokは登録から1時間以内に、自傷行為や自殺をロマンチックに描く危険なコンテンツに子どもたちのアカウントを引き込む可能性がある」とアムネスティ・テックのプログラムディレクターのダミニ・サティジャは述べていた。
今回の調査は明確なスケジュールを設定せずに実施され、欧州委員会は、追加的な情報提供要請の送付や、聞き取り調査などを通じて、証拠の収集を続けるとしている。
TikTokは調査に協力する予定だと述べている。「我々は10代の若者を保護し、13歳未満の若者をプラットフォームから排除するための機能や設定の導入を率先して行っている」と同社の広報担当者は述べている。「我々はTikTokを利用する若者の安全を守るための取り組みを、専門家や業界との連携で実施しており、その詳細を欧州委員会に説明することを楽しみにしている」と担当者は続けた。
(forbes.com 原文)