AIは高性能化にともなってそのモデルも大規模化していますが、大規模AIモデルの学習には莫大な電力を消費するといわれています。AIの研究を行ってきた非営利組織「オープンAI(OpenAI)」の調査によると、大規模AIモデルの訓練に必要となるコンピューティングパワーは2012年以来3、4カ月ごとに倍増しているといいます。
マサチューセッツ大アマースト校の研究チームによると、Googleの自然言語処理モデルBERTの訓練に必要なコンピューティングコストをCO2排出量に換算すると、旅客機でニューヨークとサンフランシスコを往復するときのCO2排出量に相当するといいますから、地球温暖化がクローズアップされる近年においては決して無視できない「環境」面での観点になります。
「企業統治(ガバナンス)」の観点でも、AIやデータをどのように調達してくるかが重要になります。AIのビジネスはいかにパートナーシップを構築してビジネスモデルを構築するか、その中でどのように収益化につなげるモデルを設計するかという点が重要になっています。
しかしサプライヤーから調達されるAIがバイアスを含んでいて不平等な結果を出力するものであれば、企業はそのAIの利用者としてリスクを背負うことになりかねません。また、そのサプライヤーが使っているAIの学習用データに利用許諾の得ていないデータ(個人情報など)が含まれている場合にはどうなるでしょうか。これは自社がサプライヤーとしてユーザー企業にAIやデータを提供する場合に、今後どのようなことが求められるのかも意味しています。
このような「AIのサプライチェーン」上でのリスクをどのようにとらえ、ガバナンスを効かせていくのかについては、日本企業においても徐々に問題意識が芽生え始めています。リスクに先回りし、早めに検討して手を打っておくことが重要です。冒頭のEUの包括規制案でもAIのサプライヤーやユーザー企業に求める要件の規定を策定しており、グローバル基準ではそこまで議論が進んでいるのです。
では国内の企業や組織は、AIに関するコンプライアンス・プログラムや倫理ガイダンスをどのように設けたらよいのでしょうか。その方法の一つとして次回は、AIガバナンスのロードマップである6つのフェーズを紹介します。
AIを責任あるAIにしていくため今、より積極的な戦略が求められています。
●【連載】「責任あるAI」
#1:日本企業の経営幹部の77%が焦るAI導入#2:AI活用は日常になるか? 起きる変化と「3つの壁」
#3:AIを「育てる」なら6つの新リスクに対処せよ
#4:公平なアルゴリズムは存在しないのか
#5:欧州AI規制への懸念。すでに現実化する企業リスクへの対策とは
保科 学世◎アクセンチュア ビジネス コンサルティング本部 AIグループ日本統括 兼 アクセンチュア・イノベーション・ハブ東京共同統括 マネジング・ディレクター 理学博士。アナリティクス、AI部門の日本統括として、AI HubプラットフォームやAI Poweredサービスなどの各種開発を手掛けると共に、アナリティクスやAI技術を活用した業務改革を数多く実現。『責任あるAI』(東洋経済新報社) はじめ著書多数。
鈴木 博和◎アクセンチュア ビジネス コンサルティング本部 AIグループ シニア・マネジャー。東京工業大学大学院情報理工学研究科計算工学修士課程、東京理科大学大学院イノベーション研究科技術経営修士課程修了。十数年におよびAIの研究開発・マネジメントなど多領域での研究企画に従事。その後、IT系コンサル会社にて自然言語処理を中心としたソリューションのPoC~導入・運用支援を多数経験。現在はアクセンチュアにてAI POWEREDバックオフィスの開発などAI技術を活用した業務改革実現に従事。