EUのAI法では、重要なインフラや医療機器に用いられるような高リスクのAIシステムはより厳しい規制の対象とされ「リスクの評価と低減」、データ利用に関する透明性、人間による監視の徹底が求められる。
学校や職場における感情認識システムなど、一部のAIアプリケーションは「市民の権利をおびやかす」との理由で全面的に禁止される。
公共の場で人々の識別に使われる生体認証システムは、法執行機関が人身売買や性的搾取の被害者を発見したり、テロの脅威を阻止したり、犯罪容疑者を特定したりする目的でのみ使用を認める。
また、AIを用いて生成した画像、映像、音声コンテンツには、その旨を明示することを義務付けている。
AI法は、EU加盟国で構成する閣僚理事会による最終承認を経て、5月に成立する見通し。チャットボットに関する規定などを含む規制一式は、2026年半ばまでに適用される予定で、欧州議会によると加盟国がそれぞれ独自のAI監視機関を設立する。
AI法に違反した場合は、最大で3500万ユーロ(約56億円)か企業の年間世界売上高の7%に相当する制裁金が科される。
AI法について、起草に携わった欧州議会のドラゴス・トゥドラケ議員は「AIの未来を人間中心の方向、すなわち人間がテクノロジーをコントロールし、テクノロジーを活用して新しい発見や経済成長、社会の進歩を実現し、人間の可能性を引き出せる方向へと動かしてきた」と評価している。
EUは、急速に発展するAI技術の規制づくりで世界をリードすべく、2018年にAI関連規制法案の起草を開始。2021年前半に初期草案を発表したが、当時の規制案はChatGPTをはじめとするチャットボットなどに用いられている「汎用型」のAIには対応していなかった。欧州議会は昨年12月、リスク評価に基づく規制を課し、高リスクのシステムにはより多くの制限と監視を求めるAI法の条項に合意した。
米国ではジョー・バイデン大統領が昨年10月、AIに関する大統領令に署名。「AIの潜在的リスクから米国人を守るためのこれまでで最も包括的な措置」として、一部企業に対し、安全性試験の結果をはじめとする情報を政府と共有することなどを義務付けた。AP通信によると、全米で少なくとも7州がAI規制法案を州議会に提出している。
(forbes.com 原文)