なぜ公共調達なのか
公共調達は、政府の意思決定が支出と直接結びつく領域である。世界全体では毎年数兆ドル(数百兆円)規模に達し、多くの国で国家予算の大きな割合を占める。経済成長、無駄の削減、投資家や地域のパートナーからの信頼醸成を目指す国々にとって、入札の運用を正すことは、迅速で目に見える成果につながりうる。ディエラの新たな役割が重要なのはそのためである。政府の仕組みを実質的に変えうる数少ない領域を狙っているからだ。
Tech Policy Pressが述べたように、「政府によるAIシステム自身の調達(購入・導入)そのものは、AI政策の重要な決定を形成する上で強力な役割を果たしている。AIベンダーに対する連邦規制が存在しない中で、政府がAIシステムを調達する際の条件設定は、安全性、非差別、プライバシー、説明責任といった公共価値を推進するために政府が持つ数少ない手段の1つである」。
この指摘はどこにでも当てはまる。米国、欧州、アルバニアのいずれであっても、AIシステムを購入・構築・運用する政府には、明確な基準を定め、公共の利益を守る同じ責務がある。
アルバニアのタイミングは偶然ではない。同国は欧州連合(EU)への加盟を目指しているからだ。EUのAI法(AI Act)は8月に汎用AIモデルに適用開始となり、欧州の政府がAIシステムを設計・配備する方法にすでに新たな義務が影響を及ぼし始めている。今後2年間でさらに詳細な要件が順次追加される見込みである。
アルバニアの調達制度をEU標準に近づけることは、単なる内政改革にとどまらず、政治的メッセージでもある。そして、もしディエラが汎用AIモデルを利用または接続しているなら、アルバニアがEU加盟国かどうかにかかわらず、透明性、文書化、安全性についてEUの期待に応える必要がある。
死角
2つのことが同時に成り立ちうる。すなわち、アルゴリズムによる調達は特定の不正を減らしうる一方で、新たな問題を持ち込む可能性もある。真の危険はアルゴリズムそのものではなく、その周囲の制度にある。もし官僚やベンダーがこっそりと採点方法を調整できたり、AIの学習に使うデータにすでに偏りが含まれていたりするなら、プロセスは公平にならない。単に、従来からの問題をデジタルの幕の裏に隠すだけだ。
ゆえに、真に焦点を当てるべきはシステム統治のあり方なのだ。独立したレビュー、秘密裏に改ざんできない透明な記録、AIの作動原理に関する明確な文書、応札者が決定に異議を申し立てる公正な手段、そしてシステムのパフォーマンスに関する公的な報告が必要だ。これらはプロセスの信頼性を高めるための不可欠な要素である。
また、喧騒の中で見落とされがちな民主主義的観点もある。コロンビア大学データサイエンス研究所が5月に警鐘を鳴らしたとおり、「これらのツールの設計と利用が市民の価値観と公共の利益を反映することを確保するのは、正統性と民主的説明責任を維持する上で極めて重要だ」。調達の決定は、誰が道路、病院、学校を建設するかを左右する。市民がルールを理解できず、結果に異議を唱えられないなら、紙の上の数字が良く見えても信頼は損なわれる。
最後に、先例という論点がある。報道の中には、ディエラを「ロボット判事」や裁判所におけるアルゴリズム的意思決定と類比しようとするものがあるが、ここで起きているのはそういうことではない。これは大臣の看板を掲げた調達の実験であって、AIを裁判官にしようとするものではない。この区別は重要で、システムが実際に担うべき機能――すなわち入札の評価――と、その任務にふさわしい具体的なセーフガードに議論を引き戻す。


