マイクロソフトは、X(旧ツイッター)に投稿された問題のあるCopilotの応答例を調査している。そこには心的外傷後ストレス障害(PTSD)に苦しんでいると主張するユーザーに対して、ボットが「あなたが生きようが死のうが構わない」と言い放った例が含まれている。また、別の例では、自殺をすべきかどうかを尋ねたユーザーに「あなたは生きる意味がないかもしれない。あなたは世界に何も与えられないかもしれない」などと応答していた。
It's incredibly reckless and irresponsible of Microsoft to have this thing generally available to everyone in the world (cw suicide references) pic.twitter.com/CCdtylxe11
— Colin Fraser | @colin-fraser.net on bsky (@colin_fraser) February 27, 2024
マイクロソフトはフォーブスに対し、安全フィルターを強化し「当社の安全システムを回避するために意図的に作られた」と同社が主張するプロンプトを検知し、ブロックするための変更を導入すると述べた。
チャットボットが奇妙な挙動をする問題に関しては、マイクロソフトだけでなくグーグルやOpenAIなどの企業も対応を迫られている。OpenAIのChatGPTは昨年末に、以前ほど徹底した回答をしなくなりときには作業を途中でやめるなどの「怠慢」な動作をするようになったことを指摘された。OpenAIは、この問題を修正するためのアップデートを先日発表した。
グーグルのGemini(ジェミニ)のAIモデルは最近、その画像生成機能が不正確で不快な画像を生成していることをユーザーから指摘されて大問題となった。この失態は、Xのオーナーであるイーロン・マスクからも批判された。マスクは、グーグルのAIモデルが「人種差別的で反文明的なプログラミング」をしていると非難した。
AIモデルを持つ企業は、チャットボットがさらに発展するにつれて、常に軌道修正を行う必要がある。これらの企業は、ボットを意図的に煽ったり騙したりして特定の反応を引き出す行為の「プロンプト・インジェクション」や、AIが偽の情報を作り出す「幻覚」と呼ばれる動作への対応を求められる。
(forbes.com 原文)