チャットボットが歪んだ現実を生み出す可能性
シャルマが先に公表した研究では、AIチャットボットの利用がユーザーに歪んだ現実認識を形成させることができるかを検証し、この歪みを生み得るやり取りが「毎日何千件も発生している」ことが判明した。
シャルマが「無力化パターン(disempowerment patterns)」と呼ぶ、現実認識の深刻な歪みはまれだが、人間関係やウェルネスといったテーマでは発生率が高いという。シャルマは、これらの発見が「人間の自立性と繁栄を、強力に支援するAIシステムの必要性を強調している」と述べている。
その他の事例
倫理的懸念を理由に辞職する著名なAI企業の社員は他にもいる。
OpenAIの元経済研究者であるトム・カニンガムは9月に同社を去り、AI利用に批判的な研究の公表に対して会社が(申し立てによれば)より慎重になっていることへの不満が募ったと、社内メッセージで述べたと報じられている。
2024年には、OpenAIが安全性研究チームのSuperalignment(スーパーアラインメント)を、主要メンバー2人の辞任後に解散した。この2人のうちの1人で、現在はアンソロピックで安全性研究を率いるヤン・ライケは、辞任時にXへの投稿で、「会社の中核的な優先事項について、OpenAIの経営陣とかなりの期間にわたり意見が合わず、最終的に限界点に達した」と述べた。
ライケの直後にAI政策研究者の職を離れたグレッチェン・クルーガーは、同社は「意思決定プロセス、説明責任、透明性」ならびに「不平等、権利、環境への影響に対する緩和」に関して、さらに改善する必要があるとXへの投稿で述べている。


