ツイッターのResponsible MLと呼ばれるイニシアチブは、今後数カ月の間に、画像抽出アルゴリズムが原因となって生じた人種や性別にまつわる偏見や、タイムラインの公正さの評価、コンテンツのレコメンドが政治的イデオロギーに及ぼす影響などの、複数のレポートを発表する。
昨年、ツイッターの画像アルゴリズムが、暗い顔よりも白い顔にフォーカスしていると批判された後、同社は、「社内のテストでは人種や性別の偏りは見られなかった」と主張した。しかし、その後、「写真を自動的に切り抜くテクノロジーは、害を及ぼす可能性がある」とのコメントを発表し、より多くのユーザーが画像をコントロールできるようにする機能をアナウンスした。
ツイッターは、今後のレポートの内容次第で、プラットフォームの変更や新たなガイドラインの導入、倫理的な機械学習に関する「意識の向上」に向けての取り組みを進めると述べている。
今回のツイッターのイニシアチブは、SNS企業が、偏向報道や誤報、オンラインの過激な言論を増加させているとの非難を受けて始動した。特にツイッターは、ハラスメント対策が十分でないと批判されている。
ニューヨーク・タイムズ(NYT)の元コラムニストのチャーリー・ウェッツェルは先日、自身のニュースレター「Galaxy Brain」の中で、ツイッターの「トレンド」セクションがインターネット全体の注目を一人のユーザーに集めてしまうため、不均衡な怒りが生じ、それが「キャンセルカルチャー」の蔓延につながっていると述べた。
ジャック・ドーシーCEOは以前、ツイッターが将来的に、単一のアルゴリズムに依存するのではなく、ユーザーが好みのアルゴリズムを選択できるような形が望ましいと述べていた。
ツイッターは、自社のアルゴリズムがユーザーや社会全体に悪影響を及ぼす可能性があることを暗黙のうちに認めている。これは、フェイスブックが自社のアルゴリズムを擁護しているのとは対照的だ。
フェイスブックのグローバル担当のニック・クレッグは、先月のMediumの投稿で、「フェイスブックは過激なコンテンツを増幅させることで、商業的利益を得ていない」と述べていた。「インターネット上の極端な政治的言論の増加は、フェイスブックだけの責任ではない」と彼は主張した。