ChatGPTも同様で、男女間の不平等に関する質問に対して外交的、政治的に正しい答えをしても、それが客観的、道徳的、覚醒的だとは言えないのだ。それによって、論争や対立を引き起こす意見を排除するために導入されたセーフガードの存在が際立つだけで、議論を進展させることはできない。だから、私たちの見解や意見を代弁してくれないとChatGPTに文句をいうのではなく、その出力を検証して、本当の世論から何が取り込まれ、何が省かれているのか、そしてそれはなぜなのかを理解しよう。
まあ確かに、AIは私たちの生活を改善するために完璧である必要はない。現状よりも優れていれば良いだけで、現状ではかなり低いハードルだ。しかし、結局のところAIに対して抵抗があるのは現状、人間の直感が働いているからだ。そして、ほとんどの場合、それは「偏見」の美しい婉曲表現なのだ。そして、人間は防御的に振る舞うだけでなく、自分の偏見を誇りにさえ思っている。
端的にいうなら、AIを指さして、その偏りを嘲笑することは、私たち自身の偏りを永続させるためのすばらしい戦略なのだ。だが、これこそが、AIが私たちの偏見を吸収して、増幅させるのに有効に働く理由だ。聞きたいことを伝えさせ、見たいことを示させることで、AIの影響にさえ気付かない堅牢なフィルターバブルを作成し、現実から切り離されてしまうのだ。
その意味で、AIが私たちに聞きたくないことを教えてくれたときこそ、ひょっとすると(想像に過ぎないが)、私たちが少しでも偏りのない自分になるチャンスを与えて貰っている可能性があるのではと注意を払うべきだろう。AIが自己への疑いや不安を増大させることができることに、私たちは慣れていないので、それは非常に不快な出来事だ。しかしそれは、私たちの能力と専門知識を向上させるために必要不可欠なのだ。AIを自己強化するためだけに導入し続ける限り、私たちは自己確信を高める代償として、能力を低下させることになる。そして私たちの偏見を拡大するAIの受け入れが進むだろう。
(forbes.com 原文)