人工知能(AI)を利用したシステムが、医療から教育、金融に至るまで私たちの生活のさまざまな分野へと着実に拡大する中、倫理面での問題と監視の方法が最重要課題となっている。革新的なこのテクノロジーを人間らしい価値観に寄り添わせ、社会の偏見を複製・増幅しないようにするには、どうすればよいのだろうか。
国連教育科学文化機関(ユネスコ)とオランダのデジタルインフラ当局は、AIガバナンス用ツールを欧州諸国に提供することを目的とした新たな取り組みを共同で立ち上げた。
「管轄当局によるAIの監督」と命名されたこのイニシアチブでは、欧州全域におけるAI監督慣行の現状をユネスコが報告書にまとめ、各国のコンプライアンス担当機関に推奨するベストプラクティス集を策定する。
イニシアチブの中核を担うのは、欧州連合(EU)や各国のAI作業部会を主導してきたオランダのデジタルインフラ当局で、プロジェクトに情報や意見を提供し、EU全域での採用を推進していく。
具体的には、ユネスコは世界のAI監督状況を分析し、各国の規制当局と協力してケーススタディーを作成し、トレーニング教材を用意する。オランダのデジタルインフラ当局は、ユネスコとEU加盟国のデジタル当局の仲立ちをし、フィードバックを提供する。
このプロジェクトは欧州委員会の支援のもと、年内に可決され2025年末~26年初めに全面施行が見込まれる画期的な欧州AI法に備え、域内各国に対応を促すことを目的としている。
複雑で進化し続けるAIシステムの監督は容易ではないが、ユネスコは独自のアプローチが道を切り開く一助となるとみている。ユネスコは2021年に「人工知能の倫理に関する勧告」を発表。そこで示された指針と行動規範は、国連加盟193カ国すべてに採用された。
この勧告に法的強制力はないが、透明性、プライバシー、人間による監視、影響評価といった重要な概念を包含しており、新たな政策を策定する際の情報源になり得る。ユネスコの活動を基盤として、オランダのデジタルインフラ当局との実践的コラボレーションでは、倫理に根ざした具体的な監督方法の醸成を目指す。
「これは技術的な議論ではない。社会的な議論であり、どのような世界に住みたいかという話だ。AIの技術的発展を形作るためには、われわれの誰もが大切にしている倫理的・道徳的価値観に裏打ちされた効果的なガバナンスの枠組みが必要だ」と、ユネスコ人文・社会科学担当事務局長補のガブリエラ・ラモスは述べている。
ユネスコとオランダ当局の協働のようなイニシアチブは、AI開発を建設的な方向に導くだろう。とはいえ、効果的な監視が複雑な課題であることに変わりはない。
AIシステムがより高度化し、どこにでもある存在と化すにつれ、世界中の規制当局は利益の実現と被害の最小化との間で微妙なかじ取りを求められることになる。自主的な倫理的枠組みを強固なガバナンスへと発展させられるかどうかは、そのうち明らかになるだろう。
(forbes.com 原文)