ライクはOpenAIを離れてから、同社の安全に対するアプローチをあからさまに批判している。同社にいたときは「向かい風の中を航海していた」ような感じで、安全に関する取り組みのためのリソースを確保するのに苦労していたと明らかにした。「過去数年間、安全性より輝かしい製品が優先されてきた」とライクは指摘し、安全研究を優先し、汎用人工知能(AGI)の影響について真剣に取り組むようOpenAIに求めた。
Building smarter-than-human machines is an inherently dangerous endeavor.
— Jan Leike (@janleike) May 17, 2024
OpenAI is shouldering an enormous responsibility on behalf of all of humanity.
OpenAIのチーフサイエンティストでもあり、アルトマン追放に一枚噛んだサツケバーはライクほど表立ってOpenAIを批判することはなかった。Xへの投稿でサツケバーは「OpenAIが安全で有益なAGIを構築することを確信している」と述べ、同社の経営陣を褒め称えた。また、今後の取り組みに「興奮している」としたものの、詳細については「個人的に非常に意味のあるプロジェクト」としか明らかにしていない。
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the……
— Ilya Sutskever (@ilyasut) May 14, 2024