新しいモデルが登場したとき、既存モデルはどうなるのか。一般的なテック業界の慣行では、古いモデルは退役し、新しいモデルに置き換えられ、旧モデルは利用できなくなる。しかし、古いモデルの動作に依存してプロセスや実務を構築していた場合、このやり方は問題に直面する。
Anthropic(アンソロピック)はこれとは異なる方針を示し、今週、利用が多いモデルについては重み(ウェイト:学習済みパラメータ)を保存することを約束する研究ノートを公表した。同ノートはまた、システムを停止すること自体が実質的なコストや新たな安全性の問題を招き得ると説明する。Anthropicがこのアプローチを取る理由は主に三つある。第一に、顧客は、好んで使っていたモデルが消えると不利益を被ること、第二に、旧モデルを研究する研究者へのアクセスが制限されること、そして第三に、置き換えを回避しようとするモデル自体の振る舞いがあることだ。
AIモデル進化の加速
AIシステムで使われるモデルは、急速なペースで進化し続けている。広く使われているAIプラットフォームやモデル開発研究所は、しばしば予告期間をほとんど設けずにモデルを素早く切り替える。AI導入側は、コンプライアンス、モデル評価、カスタム開発、不安定な統合といった時間のかかるプロセスと並行して、新モデルへの移行を迫られる。一方で安全性研究者は、モデルを唐突に退役させることは、組織がAIモデルの成果を報告する方法を歪め、失敗を覆い隠す可能性があると警告している。
AIモデルは、従来型のソフトウェアやウェブアプリケーションとは性質が異なる。ユーザーインターフェースや機能の変更とは違い、モデルの変更は、振る舞い、語調、コンテキスト、ツール利用、コンテキストウィンドウの大きさ、拡張ツールの利用と提供、推論系の能力、周辺ツールの陳腐化の可能性などに差異をもたらす。特定モデルに対してファインチューニングやプロンプトエンジニアリングを施してきたチームにとって、モデル変更はシステム性能の測定可能な差、データバイアスや倫理面の問題、潜在的リスクを引き起こし得る。
AIモデル提供者はこうした懸念を認識し、ライフサイクルを制度化し始めている。Amazon Bedrock(アマゾン・ベッドロック)は、モデルをActive、Legacy、End‑of‑Lifeとラベル付けし、モデル公開後は最低12か月の運用期間を明示している。Azure(アジュール)は、ファインチューニング済み公開モデルの退役を段階的に進めようとしている。これらのタイムラインは期待値を設定するが、それでもベースラインが変わるたびに、顧客はプロンプトや監査手順の作り直しを余儀なくされる。
OpenAIは、どのモデルがいつ廃止されるかという廃止予定リスト(ライフサイクルリスト)を公開・保持し、過去のGPTモデルを順次退役させてきた。しかし、GPT‑5の公開をめぐって、旧来のGPT‑4モデルが利用不能になったことへの反発が起こり、同社は方針を見直した。Stability AIは最近、Stable Diffusion 3.0のAPIを廃止し、トラフィックを3.5へ自動ルーティングしたが、これにより画像出力を追跡していたチームの再現可能性が損なわれたとの指摘が多く出た。グーグルはGeminiを主軸とするにつれ以前PaLMのAPIを終了し、統合上の混乱を招いた。



