ガイドラインは、米国土安全保障省のサイバーセキュリティ・社会基盤安全保障庁(CISA)や英国家サイバーセキュリティセンター(NCSC)などが共同で発表した。法的拘束力はないものの、企業がAIを開発・導入・維持する際、悪用から顧客や一般市民の安全を守る必要があるとしている。
ガイドラインにはAIを安全に保つための推奨事項が含まれており、悪用の監視、ハッカーからのデータ保護、ソフトウェアサプライヤーの審査、セキュリティテスト後のリリースなどを企業に助言している。
18カ国には日英米のほか、ドイツ、イタリア、ノルウェー、オーストラリア、チリ、ナイジェリア、シンガポールなどが含まれている。さらに、グーグル、マイクロソフト、OpenAIなどの企業も、ガイドラインの策定に協力した。
CISAのジェン・イースタリー長官はロイター通信に対し、AI開発が「単にクールな機能や、いかに早く市場に投入できるか、あるいはいかにコスト削減を競い合うかということに終始してはならないということが、今回初めて確認された」と語った。
(forbes.com 原文)