世界の「責任あるAI」や「AI倫理」をめぐる動向は目まぐるしく変化し、AIに求められる基準は流動的であるといえます。今後、企業の責任あるAIとしてスケールしていくためには、国内だけでなく世界の動向にも目を配りながら、自社のミッションステートメントとも整合する「自分たちにあったAIガバナンス」を策定する必要があります。そしてそのAIガバナンスを実際に実行可能にする戦術書、プレイブックが必要であり、このプレイブックを状況に合わせて柔軟に対応させていく機動力も求められています。
世界において大きな潮流となっている「責任あるAI」が日本企業においても優先的に検討すべき課題となっている状況と、それにどう対処していけばよいかについて3回にわたり解説してきました。
2022年はAIガバナンスについてより具体的な議論がなされるとともに、「責任あるAI」についての共通認識も広がり、成長のための必須要素としてますます認知される年になるでしょう。AIを適切に運用して人が正しい判断を下す一助となるよう、企業としてはもちろん、社会全体としても「責任あるAI」を実現していくことが急務となっているのです。AIが急速に浸透していく中で、AIがリスクとなるのではなく、世の中のあるべき姿の実現に向けた技術としてのAI活用が、今求められています。
●【連載】「責任あるAI」
#1:日本企業の経営幹部の77%が焦るAI導入#2:AI活用は日常になるか? 起きる変化と「3つの壁」
#3:AIを「育てる」なら6つの新リスクに対処せよ
#4:公平なアルゴリズムは存在しないのか
#5:欧州AI規制への懸念。すでに現実化する企業リスクへの対策とは
#6:AI一人歩きに高まるリスク。不可欠なガバナンスはどう作るべきか
保科 学世◎アクセンチュア ビジネス コンサルティング本部 AIグループ日本統括 兼 アクセンチュア・イノベーション・ハブ東京共同統括 マネジング・ディレクター 理学博士。アナリティクス、AI部門の日本統括として、AI HubプラットフォームやAI Poweredサービスなどの各種開発を手掛けると共に、アナリティクスやAI技術を活用した業務改革を数多く実現。『責任あるAI』(東洋経済新報社)はじめ著書多数。
鈴木 博和◎アクセンチュア ビジネス コンサルティング本部 AIグループ シニア・マネジャー。東京工業大学大学院情報理工学研究科計算工学修士課程、東京理科大学大学院イノベーション研究科技術経営修士課程修了。十数年におよびAIの研究開発・マネジメントなど多領域での研究企画に従事。その後、IT系コンサル会社にて自然言語処理を中心としたソリューションのPoC~導入・運用支援を多数経験。現在はアクセンチュアにてAI POWEREDバックオフィスの開発などAI技術を活用した業務改革実現に従事。