ChatGPTをはじめとする生成AI(人工知能)の熱狂の波が日本にも押し寄せている。生成AIを導入しようといち早く飛びつく企業も多いだろう。しかしあえて言うなら、AIは単なる業務の自動化というレベルの話ではなく、経営者の人間力が問われる話なのだと強調したい。
極めて高度な模倣能力のある生成AIは、柔軟な対応や抽象的問題の取り扱いなど、従来人間にしかできないと捉えられてきたことを実現しつつある。今後進んで行く、AIと人間の共創を前提とした組織変革に備えて、企業が取るべき行動は、業務の再構築、それに合わせた社員の活用、配置転換、社員の教育を一から見直すことだ。技術やそのリスクについても理解しなくてはいけない。こうした膨大な課題に早急に対応するには、経営者のリーダーシップ、人間力が要になる。AIで様々なことができるからこそ、経営者が自社の方向性や情熱や意志を、自身の言葉で顧客や社員、外部に伝達し、共感を生んでいくことだ。
変革の第一段階として取り組むのが、責任あるAIの開発だ。「責任あるAI」とは、企業が顧客や社会に対してよい影響を与えるために、AIを「公平性」や「透明性」をもって正しく設計、開発、展開するという考えだ。「AIガバナンス」の構築と理解すればいい。
AIは可能性が大きい反面、想定した目的に対して、妥当な学習結果を出さないこともあれば、間違いを犯すこともあり、決して「打ち出の小槌」ではない。生成AIは過去のデータのなかから真実か否かにかかわらず「もっともらしい」結果を出すという特性が作用するからだ。ましてデータの真偽や倫理性の判断もできない。原則、人が介在して情報の不確かさや倫理性を評価し、修正の要否を判断すべきだ。
また経営者は、感覚知としてAI技術の理解と、それが会社、業務に対してどう変化をもたらすのかをイメージするのが大事だ。私はよく「ガードレールを設置する」と表現するが、AI導入に試行錯誤は必須でも人命に関わることは絶対に失敗できない。だから、現場にミスや失敗を推奨し挑戦を促しつつも、どこでどう失敗するのかを実際に試しながらAIを成長させていくこと、ここからここまでという範囲をきちんとコントロールすることがリーダーの仕事だ。経営者も、会社の仕組みも大きく変革していくタイミングに今、来ている。
そして別の視点として、リスクのあるAIだからこそ、法規制も必要になると考えている。欧州連合(EU)は先駆けて6月に、AIを使用するうえでの個人情報やプライバシー、著作権保護を盛り込んだ法案を承認した。AIに学習させるために著作権で保護されたデータを利用した場合は公表するといった、データの透明性が義務化される。「責任あるAIの使用」に向けて、ひとつの法的な方針ができることになる。日本では、たとえば規制やコンプライアンスの厳しい金融業界で顧客保護の観点で規制が強化されるだろう。AIの誤情報に基づいて融資が断られるといったリスクも想定できるため、データの透明性が争点になるのは必須だ。
AIにしてもWeb3にしても、安心して使用できる一定のルールは当然のことながら必要だ。あくまでも利用者の安心、安全のためのルールであることが原則だ。
保科学世◎アクセンチュア執行役員 ビジネスコンサルティング本部AIグループ日本統括 AIセンター長。長らく企業のAI導入の現場に携わり、AI技術を活用した業務改革を実現してきた。『責任あるAI』(共著、東洋経済新報社)など著書多数。