【重要なお知らせ:当社を装った偽サイトにご注意ください】

サービス

2025.03.04 08:00

AIにより「社会性を失った」ソーシャルメディア 今考えるべきリスクと可能性

Shutterstock.com

考えるべきはAIそのものではなく、その使われ方

BuzzFeedのペレッティCEOは、ソーシャルメディア企業がAIに注力するようになったこと自体を問題視して非難したようにも見受けられるが、本当の問題はただ、AI技術がどのような使われ方をしているか、という点にあるのかもしれない。AIにはSNSを改善できる可能性があるものの、そのためにはいくつか重要な変更を加える必要がある。

SNSプラットフォームはAIの使い方を根本的に考え直さなければならないだろう、とセントラルフロリダ大学のメル・スタンフィル准教授は指摘する。「レコメンデーション(おすすめ)アルゴリズムは、注目を集めるコンテンツだけに最適化するのではなく、相手を尊重した生産的なやりとりにつながる投稿なども対象にするべきだ」

「だがこれは、把握して実装することは可能なものの、何よりも注目を集めたいプラットフォームの利益に反する」とスタンフィルは続けた。「モデレーションも同様で、有害な使い方を減らそうとプラットフォームが戦術を変えれば、互いにやり合おうとするユーザーの戦術も変化する。ちょっとしたモグラたたきのようなものだ。とはいえ、人間の判断でこうした問題を理解し、その理解に基づいてコンテンツモデレーションアルゴリズムの対応方法を変更することは十分に可能だ」

言い換えれば、生成AIは本質的に有害な技術なわけではなく、すばらしいことを実現できるのだ。しかし、多くのテクノロジーの例にもれず、有害に働く可能性もあり、人間の監視がなければ適切に運用することはできない。また、よりよいトレーニングをAIに施す必要もあるだろう。反社会的で危険とみなされるプロンプトに対して応答を生成しないようにする技術はすでに実用化されている。

「これらの技術は基本的に、大手SNSやインターネット企業の一部で人間のコンテンツモデレーターが行っているヘイトスピーチ対策と同じ役割を果たす。ただ、最近では多くの企業がこうした取り組みを放棄している」とニューヨーク市立大のオコナーは言う。

さらに、トレーニングの中には時間がかかるものもあり、大規模なチームで取り組む必要がある。スタンフィルは「機械学習に任せるよりも高くつくが、こうした技術をより積極的に活用するうえで大いに役立つはずだ」と主張した。

最後の問題は、AIのデジタル指紋が付いたコンテンツを規制する上で、ソーシャルメディア企業が果たすべき役割があるとすれば何か、ということだ。

「ソーシャルメディア企業が何であれ特定の見解を特別扱いするのは、それが肯定的であろうと否定的であろうと、言論の自由の原則に反する。もっとも、主要な報道機関にある程度の政治的な偏りがみられる事例は数えればきりがない。結局のところ、エンドユーザーが何を投稿し、購読し、読むかが肝心なのだ」とオコナーは総括している。

forbes.com原文

翻訳・編集=荻原藤緒

タグ:

ForbesBrandVoice

人気記事