蒸留とは何か
蒸留は、AIモデルの開発者が利用する手法であり、高度なAIモデル(教師モデル)の出力を使って、より小型のモデル(生徒モデル)を訓練するものである。目的は、生徒モデルがより少ない計算資源で教師モデルに近い性能を獲得することにある。テクノロジーアナリストであるベン・トンプソン(ニュースレター『Stratechery』著者)によれば、OpenAIやAnthropic(アンソロピック)、グーグルといった企業はすでに内部で蒸留を使ってモデルを最適化している可能性が高いという。ただし、第三者が所有する生徒モデルが、他社の高度な独自モデルを使って蒸留を行うことは通常、利用規約に違反する行為とみなされる。OpenAIも利用規約で、自社のサービスや出力を「OpenAIと競合するモデルの開発に利用する」ことを明示的に禁じている。
企業は蒸留をどう防ぐか
OpenAIのような企業が第三者による蒸留を防ぐ方法としては、アカウントの凍結やIPアドレスのブロック、クエリ数の制限など、アクセスを制限する措置が挙げられる。ただし、こうした対策だけで蒸留を完全に阻止できるかどうかは不透明だ。サックスの発言を受け、OpenAIはフォックス・ニュースに対し「当社の知的財産を守るための対抗策を講じている」と述べたうえで、「今後は、敵対勢力や競合が米国のテクノロジーを取得しようとする試みから最も高度なモデルを保護するため、米国政府と緊密に連携することが極めて重要です」と強調している。
主な批判
テクノロジーニュースサイトTechDirtを創設したマイク・マスニックは、蒸留を巡るOpenAIの反応について「AIシステムの学習は著作権侵害ではないと信じている点で、私はBlueskyでは少数派だろう。しかしそうだとしても、OpenAIが、間抜けに見えずにこの主張を通すのは無理があるだろう」とコメントしている。(forbes.com 原文)