この変革を、公正かつすべての人のためになるよう導くためには、AIガバナンスの枠組みを構築・実施することが不可欠です。
こうした状況を受け、世界経済フォーラムは、AIガバナンス・アライアンスを立ち上げ、産業界のリーダー、政府、アカデミア、市民社会の組織を結集させ、透明性と包摂性のあるAIシステムの責任あるグローバルな設計および展開を推進しています。本題についてWEFのアジェンダからご紹介します。
生成AIは、膨大な量の情報を素早く合成し、人間が持つような創造性をテクノロジーと融合させながら、さまざまな媒体で多様なコンテンツを生成します。この新たな分野は、業界を横断して仕事の世界に革命を起こし、作業を自動化させ、創造性を育み、意思決定を改善する大きな可能性を持っています。
しかし同時に、倫理的な配慮や公平性の概念から、知性に関するより深い議論や、テクノロジーが制御不能になる仮想の未来である「シンギュラリティ(技術的特異点)」を迎えることへの懸念に至るまで、課題も生まれてきています。
具体的には、仕事の置き換え、悪意ある搾取、人間の価値観との不一致など、潜在的なリスクをもたらすことから、所有権や知的財産権、オープンモデルとクローズドモデル、イノベーションと安全性のバランス、多言語モデルと主権国家言語モデルの間の緊張関係などに至るまで、多岐にわたります。また、機会や資源の不平等な分配を招くことで、デジタル・デバイドを悪化させるのではないかという差し迫った懸念もあります。
高まるAIガバナンスの枠組みの必要性
このような不確実性は、責任ある有益な結果をすべての人に保証するための、強固なAIガバナンスの枠組みを緊急に構築する必要があることを示しています。AIガバナンス戦略は、チャンスとリスクを評価し、生成AIの可能性を活用することと、倫理的配慮を守ることの間でバランスを取りながら前進する方法を提案するものでなくてはなりません。
テクノロジーが進歩し、その範囲が拡大し続けるにつれて、その開発と展開が人間中心の原則に沿ったものであり、あらゆる場面で社会の進歩を促進するものであることを保証することが重要になります。
国連、OECD、G7広島AIプロセス、G20 AIポータル、EU・米国合同貿易技術理事会などは、AI技術開発と展開における倫理原則、透明性、安全性に関する提言を打ち出しています。
また、各国は、産業界主導の自主規制から正式なガバナンス・モデルまで、規制的アプローチを模索しているところです。これらの取り組みは前向きなものですが、十分とは言い難いのも実情です。生成AI開発が、急速なスピードで広範囲に拡大していることを考えると、グローバルな官民連携による対処が必要です。