AI

2026.02.10 10:30

「世界は危機に瀕している」アンソロピックの元AI安全性研究者が警告

Shutterstock.com

チャットボットが歪んだ現実を生み出す可能性

シャルマが先に公表した研究では、AIチャットボットの利用がユーザーに歪んだ現実認識を形成させることができるかを検証し、この歪みを生み得るやり取りが「毎日何千件も発生している」ことが判明した。

advertisement

シャルマが「無力化パターン(disempowerment patterns)」と呼ぶ、現実認識の深刻な歪みはまれだが、人間関係やウェルネスといったテーマでは発生率が高いという。シャルマは、これらの発見が「人間の自立性と繁栄を、強力に支援するAIシステムの必要性を強調している」と述べている。

その他の事例

倫理的懸念を理由に辞職する著名なAI企業の社員は他にもいる。

OpenAIの元経済研究者であるトム・カニンガムは9月に同社を去り、AI利用に批判的な研究の公表に対して会社が(申し立てによれば)より慎重になっていることへの不満が募ったと、社内メッセージで述べたと報じられている。

advertisement

2024年には、OpenAIが安全性研究チームのSuperalignment(スーパーアラインメント)を、主要メンバー2人の辞任後に解散した。この2人のうちの1人で、現在はアンソロピックで安全性研究を率いるヤン・ライケは、辞任時にXへの投稿で、「会社の中核的な優先事項について、OpenAIの経営陣とかなりの期間にわたり意見が合わず、最終的に限界点に達した」と述べた。

ライケの直後にAI政策研究者の職を離れたグレッチェン・クルーガーは、同社は「意思決定プロセス、説明責任、透明性」ならびに「不平等、権利、環境への影響に対する緩和」に関して、さらに改善する必要があるとXへの投稿で述べている。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事