OpenAIのChat-GPTを駆動する強力なエンジンGPT-4よりも強力なシステムに取り組んでいるAI研究所は、少なくとも6カ月間作業を「ただちに一時停止」し、このような高度なAIシステムがもたらすリスクを把握できるようにすべきだとした、Future of Life Institute(フューチャー・オブ・ライフ・インスティチュート)が29日に発表したオープンレターには1000人以上の署名があった。
一時停止は「公開され、検証可能」なものでなければならず、すべての主要な関係者を含むものでなければならないとオープンレターは述べ、あまりにも遅かったり、停止しようとしなかったりする場合は問題に「介入」するよう政府に促した。
この数カ月間における速いペースでのAI研究の進展は、抜本的な対策の必要性を強調していると、オープンレターは述べ「研究は制御不能な競争に陥っており」、ますます強力なシステムを開発しているが、そのシステムを理解、予測、制御することは、その作成者を含めて誰もできないとしている。
研究所と独立した専門家は、外部の専門家が監査・監督する一連の共有安全プロトコルを開発するためにこの期間を利用すべきであり、それによってAIシステムが「合理的な疑いを超えて安全である」ことを確認するべきだと、オープンレターは述べている。
署名者には、ヨシュア・ベンジオやスチュアート・ラッセルといった著名なコンピュータ科学者、オックスフォード、ケンブリッジ、スタンフォード、カリフォルニア工科大学、コロンビア、Google(グーグル)、Microsoft(マイクロソフト)、Amazon(アマゾン)といった学術・産業の研究者、さらにはSkype(スカイプ)の共同創業者ジャーン・タリン、Pinterest(ピンタレスト)の共同創業者エヴァン・シャープ、リップルの共同創業者クリス・ラーセンといった著名テック起業家が名を連ねている。
ただしこのリストはある程度懐疑的に扱われるべきで、Verge(ヴァージ)は、OpenAIチーフのサム・アルトマンも冗談で追加されたようだと報じている。