ChatGPTは、詩や歌詞を創作したり、コンピュータプログラムのコードを書いたりできるほか、MBAの修了試験にも合格できる。ユーザーから質問を受けると、学習した膨大なオンラインデータに基づいて回答を生成する。ChatGPTの可能性と潜在能力は果てしないように思えるが、考慮すべき負の側面もある。
オープンAIは、ChatGPTの暴力性や性差別、人種差別を抑制するため、ケニア人労働者を時給2ドル(約260円)未満の低賃金で雇い、ChatGPTが有害なコンテンツを認識できるようにする作業を行わせた。このために雇われた人々が、米誌タイムに対して匿名を条件にその実態について語っている。
ある労働者は、学習用の文章は残虐な内容のもので、それを読んで分類する作業は「拷問」のようだったと語った。ジェネレーティブAI(生成系AI)の開発に発展途上国の労働力の搾取が必要となることは、見過ごされがちな事実だ。
また、ジョイ・ブォロムウィニやティムニット・ゲブルといった科学者たちは、AIの負の側面について警告を発し続けている。
サフィヤ・ウモジャ・ノーブルは、アルゴリズム内に存在するバイアス(偏見)についての記事や書籍を多く執筆している。TikTok(ティックトック)などのSNSは、プラットフォーム内にバイアスが埋め込まれていると非難されてきた。ChatGPTにも、こうしたバイアスの問題は存在する。
Twitter(ツイッター)のユーザー「steven t. piantadosi」は昨年12月、ChatGPTにさまざまなバイアスがあることを明らかにした。オープンAIはこれを受け、ChatGPTがバイアスのある回答することを防ぐための対策を講じたが、一部ユーザーはこれを迂回する方法を見つけ出している。
AIに潜むバイアスを排除する方法はいくつかある。その1つは「データの前処理」で、これはデータの精度維持に役立つ。また「公平性の制約」を導入して、AIの「センシティブ属性に関する予測」の能力を制限することもできる。
理想的なAIシステムは、人間による意思決定とテクノロジーを組み合わせたものだろう。AIを利用しようとする際は、AIがバイアスを助長する可能性に注意する必要がある。また、AI内のバイアスを低減するプロセスの導入も考慮すべきだ。
職場で利用するAIシステムに潜むバイアスに対処するためには、AI倫理を重んじる風土の醸成が効果的な戦略になる。業績評価のプロセスを見直し、より倫理的なAI使用法を導入して、AIシステムの欠点についての透明性を高め議論を活発化させるのも1つの方法だろう。
ChatGPTなどのAIチャットボットが、バイアスのかかった回答を生成する可能性があるのは意外なことではない。ただAIが生み出すものは、あらかじめプログラムされ、訓練された内容のみだ。AIの回答を完全に信用できるようになるのにはまだ遠いのかもしれない。AIには無限の可能性があるが、その限界を理解して利用する必要がある。
(forbes.com 原文)