このチームは「Preparedness」と呼ばれ、同社が開発するAIモデルが社内の安全規則に沿うよう監視する役割を担う。同社は発表で、例としてAIモデルが言語を通じて人間のユーザーを説得したり、自律的なタスクを実行したりするリスクを挙げた。
同社はまた、生物学や核関連の脅威にも注意を向けるとしている。一部のAI専門家は、AIが感染症のパンデミック(世界的大流行)や核戦争と同じく「絶滅」レベルの脅威をもたらす可能性があると警鐘を鳴らしている。
米マサチューセッツ工科大学(MIT)展開可能機械学習センターの所長で、現在は休職してOpenAIに所属しているアレクサンダー・マドリーがチームを率いる。
チームはさらに、「リスク情報に基づいた開発方針」の作成と維持にも取り組む。この方針は、AIモデルが進歩し、人間のレベルに近づくにつれてもたらされるリスクをOpenAIがどのように扱うべきかの概要を示すものだ。同社はまた、AIがどのように悪用され、実世界に害をもたらすかについてのアイデアを社外から公募するコンテストも開催する。
同社のサム・アルトマン最高経営責任者(CEO)やイリヤ・サツケバー主任研究員、ミラ・ムラティ最高技術責任者(CTO)ら幹部は5月、他のAI専門家とともに、高度なAIモデルのリスクへの対処を優先することを求める書簡に署名した。この書簡は、AIの急速な発展に懐疑的な見方を示しているテスラやスペースXのCEOであるイーロン・マスクをはじめとするテック会社幹部やAI専門家が3月に公表した別の書簡に続くものだ。マスクらはこの書簡で、AI開発を6カ月間停止するよう求めていた。
アルトマンは3月に放送された米ABCニュースのインタビューで、高度なAIモデルが「大規模な偽情報に利用される可能性がある」ことを「特に心配している」と発言。だが、技術開発は人類にとって重要との考えを繰り返した。OpenAIの対話型AI「ChatGPT」は昨年11月の公開後、さまざまな試験で優秀な成績を収めたりエッセイを書いたりして世界を席巻したが、ChatGPTや他のAIチャットボットは、誤情報を広めたり奇妙な受け答えをしたりもしている。
(forbes.com 原文)