OpenAI共同創業者のイリヤ・サツケバーとともに最近まで同社の長期的な安全プログラムを率いていたライクは、アンソロピックで「スーパーアラインメントのミッションを継続することに興奮している 」とX(旧ツイッター)に書き込んだ。
スーパーアラインメントとはAIの長期的な安全性を確保することに特化した研究分野だ。まだ実現されていないAIの一種で、人間を凌駕する可能性のあるスーパーインテリジェンス(超知能)を制御可能なものにし、人間の価値観に沿って動き、最終的に暴走して人類に危害を加えないようにすることを目的としている。
ライクは、新しいチームとともに「拡張性のある監視や一般化の促進、自動化されたアラインメントの研究に取り組む」と語った。こうした内容はOpenAIで取り組んでいたものと類似する。
ライクは同じような考えを持つ研究者に向けて「もし興味があれば、私のチームは喜んで迎える」と述べ、連絡するよう呼びかけた。
ライクのアンソロピックでの役職名は明らかではなく、同社はまだ公式声明を出していない。
I'm excited to join @AnthropicAI to continue the superalignment mission!
— Jan Leike (@janleike) May 28, 2024
My new team will work on scalable oversight, weak-to-strong generalization, and automated alignment research.
If you're interested in joining, my dms are open.
密接に関わっている1人が、富豪でOpenAIの共同創業者であるイーロン・マスクだ。マスクは、OpenAIが大きな利益が得られるマイクロソフトのような企業との取引を追求することを優先し、創業時に掲げていたオープンソースという使命を放棄したとして、OpenAIのサム・アルトマン最高経営責任者(CEO)を公然と批判している。