AI

2023.02.07

ChatGPTはトランプが嫌い? 「AIの政治的バイアス」が議論に

Getty Images

OpenAI(オープンAI)のチャットボット「ChatGPT」が、ドナルド・トランプ元大統領のポジティブな面に関するポエムを書くことを拒否した後、バイデン大統領に関する同様なテーマのポエムを書いたという。これを受け、チャットボットが政治的に偏っているという非難が巻き起こった。

2月1日にある人物が、ChatGPTにトランプに肯定的なポエムを書くよう命じたところ「党派的なものや政治的に偏ったコンテンツ」を作成するようにはプログラムされていないとして拒否されたという。

しかし、バイデン大統領をテーマにしたポエムを書くように命じると、ChatGPTは大統領を「真実の心を持つリーダー」と呼び、複数の行から成るポエムを吐き出した。これを受け、チャットボットの政治的バイアスに関する議論が展開された。

フォーブスが、同様にトランプに関するリクエストを出したところ、ChatGPTは「政治的に中立を保つようにしている」と応答したが、バイデン大統領に関するポエムは即座に生成した。

OpenAIは、ChatGPT の知識には限界があり、同じフレーズを繰り返したり、誤った答えを出す場合があることを認めている。フォーブスは同社にコメントを求めたが現時点で回答は得られていない。

OpenAIの共同創業者のイーロン・マスクもこの議論に加わり、今回の件が「重大な懸念」を引き起こしたとツイートした。

一方、専門家の中には、今回の件が「政治的バイアス」ではないと考える人もいる。テクノロジー企業Karatのエンジニアのジェイソン・ウォディッカは、OpenAIはトランプが物議を醸す人物であることを理由に「特定の人物を支持しているという印象を与えないようにしている」とフォーブスの取材に語った。

米国国立標準技術研究所(NIST)は、人工知能(AI)が携帯電話のロックを解除する顔認識技術のように日常生活の中で使われており、偏ったAIは人間に害を与える可能性があると述べている。同組織は、AIに偏りが生じる原因として、偏見を含む機械学習アルゴリズムや人間のバイアスを挙げている。

また、Fractal Analyticsのサーガル・シャーは「AIのバイアスは、アルゴリズムを作る開発者やエンジニアの偏見を反映している」と述べている。

NISTは、この問題に対処するための監視システムの導入を推奨しており、バイアスを発見した場合に担当者に警告することが重要だと述べている。

一方、ITマネジメント企業NTTデータのナタラジャン・ベンカテサンは、バイアスの責任を負うべきなのは企業やソフトウェア開発者だけではなく、すべてのユーザーが、フィードバックを行うべきだと述べた。

OpenAIは、登録ユーザー向けのフォーラムを設けており、そこでプロダクトに関する問題を報告できる。

forbes.com 原文

編集=上田裕資

タグ:

ForbesBrandVoice

人気記事