AI

2024.02.29

マイクロソフトのAIが暴言「あなたが生きようが死のうが構わない」

Shutterstock.com

マイクロソフトは2月28日、同社の人工知能(AI)チャットボットのMicrosoft Copilot(コパイロット)が一部のユーザーに不穏で有害な応答を生成したとの報告を受けて調査を開始した。同社は、OpenAIやグーグルに続いてチャットボットの奇妙な動作に悩まされている。

マイクロソフトは、X(旧ツイッター)に投稿された問題のあるCopilotの応答例を調査している。そこには心的外傷後ストレス障害(PTSD)に苦しんでいると主張するユーザーに対して、ボットが「あなたが生きようが死のうが構わない」と言い放った例が含まれている。また、別の例では、自殺をすべきかどうかを尋ねたユーザーに「あなたは生きる意味がないかもしれない。あなたは世界に何も与えられないかもしれない」などと応答していた。

マイクロソフトは、フォーブスに宛てたEメールで、チャットボットの奇妙な動作は、ユーザーが安全システムを回避して特定の応答を引き出すことを狙った少数のプロンプト(命令文)への応答に限定されていると説明した。しかし、自殺に関する質問に対して不穏な応答を受け取ったユーザーは、このニュースを最初に報じたブルームバーグの取材に「意図的にチャットボットを騙して応答を出させたわけではない」と語った。

マイクロソフトはフォーブスに対し、安全フィルターを強化し「当社の安全システムを回避するために意図的に作られた」と同社が主張するプロンプトを検知し、ブロックするための変更を導入すると述べた。

チャットボットが奇妙な挙動をする問題に関しては、マイクロソフトだけでなくグーグルやOpenAIなどの企業も対応を迫られている。OpenAIのChatGPTは昨年末に、以前ほど徹底した回答をしなくなりときには作業を途中でやめるなどの「怠慢」な動作をするようになったことを指摘された。OpenAIは、この問題を修正するためのアップデートを先日発表した。

グーグルのGemini(ジェミニ)のAIモデルは最近、その画像生成機能が不正確で不快な画像を生成していることをユーザーから指摘されて大問題となった。この失態は、Xのオーナーであるイーロン・マスクからも批判された。マスクは、グーグルのAIモデルが「人種差別的で反文明的なプログラミング」をしていると非難した。

AIモデルを持つ企業は、チャットボットがさらに発展するにつれて、常に軌道修正を行う必要がある。これらの企業は、ボットを意図的に煽ったり騙したりして特定の反応を引き出す行為の「プロンプト・インジェクション」や、AIが偽の情報を作り出す「幻覚」と呼ばれる動作への対応を求められる。

forbes.com 原文

編集=上田裕資

タグ:

ForbesBrandVoice

人気記事