この拡張により、BardやGoogle CloudのContact Center AIなどのグーグル製システムの生成AIにある問題を発見したセキュリティ研究者に、報奨金が与えられことになる。グーグルは、不公平なバイアスやAIモデルの操作、データの誤った解釈など、発見してもらいたい脆弱性の種類を概説する新たなガイドラインを公表した。対象となるAIの脆弱性を発見した研究者には、最大3万ドル(約450万円)の報奨金が支払われる。
グーグルのTrust & Safetyチームを統括するローリー・リチャードソンとロイヤル・ハンセンはブログへの投稿で「当社は、生成AIをより多くの製品や機能に統合していくにあたり、外部のセキュリティ研究者が、当社の生成AIプロダクトをより安全でセキュアなものにするための手助けをしてくれることを理解しています」と語っている。
グーグルは、同プログラムの拡張に加え、AIコンポーネントの完全性を検証するのに役立つオープンソース技術のSLSAとSigstoreを活用して、AIのサプライチェーンそのものを安全にしようとしている。
「当社は、より多くのセキュリティ研究にインセンティブを与えることでコラボレーションを活発化させ、AIを誰にとってもより安全なものにしたいと願っています」とリチャードソンとハンセンは書いている。
グーグルのこのプログラムは、2022年には480万ドル(約7億3000万円)以上の報奨金を700件以上の報告に対して支払った。同社はこの仕組みをBardのような生成AIシステムに拡大することで、安全性をさらに高め、信頼できるAIを構築することを目指している
専門家は、生成AIがより一般化するにつれて、脆弱性の解明が重要になると述べている。コンサルティング会社KPMGが最近実施した調査では、カナダ企業の最高経営責任者(CEO)の93%が、AIの出現を受けてハッキング被害が増加することを懸念していた。
(forbes.com 原文)