Session 2.では「生成AIのリスクとチャンス」と題し、麗澤大学 EdTech研究センターのセンター長・教授で東京大学大学院情報学環・学際情報学府特任准教授の小塩篤史と、PwCあらた有限責任監査法人トラストサービス開発サブリーダーで業務DXリーダー、システム・プロセス・アシュアランス担当パートナーの宮村和谷が生成AIのリスクや懸念すべき点を浮き彫りにするとともに、その可能性について議論した。
生成AI利活用に対して感じるリスクには、日米で違いがある。デジタルのリスクやガバナンスを専門とする宮村によると、導入がこれからの日本では技術面でのリスクを感じている一方で、導入が進む米国では社員の知識を課題視する傾向が高く、リスクと捉えていない割合が多いという。
小塩はその違いをこう分析する。
「米国でリスクなしと回答している方でも、おそらくリスクがまったくないと思っているわけではないでしょうが、メリットを考えるとリスクは小さいと認識しているのでしょう。一方の日本では、多くの人が技術の部分をしっかり見極めてから導入しようと考えています。もちろん、業務上のさまざまなリスクを考えるのは必要な姿勢ですが、AIが民主化し、技術の変化が見られるタイミングなので、やってみるという姿勢も大事ではないかなと改めて感じます」
チャレンジしないリスクに対する鈍感さがある日本
宮村は、米国にはリスクとオポチュニティの両方があることが前提で、実際に進めて検証、改善してサイクルを回していくカルチャーがあるとし、そのうえで、「日本は、生成AIを使わないことで遅れをとってしまうリスクがあるのではないか」と問題を提起する。小塩は、その要因は日本のリスクに対する向き合い方にあるのではないかと言う。
「日本はIT化や昨今のDXに取り組む際、競合他社の状況を見ながら右に倣えでやってきました。そのため、グローバルのなかで見ると、デジタル化が大きく遅れてしまいました。やらないリスクに対する鈍感さがあると思います。そういう観点では、やった結果のリスクもそうですし、やらないリスクにも向き合わなければならないと思います」
こうした観点はAIに限らず重要なアジェンダだ。小塩が取り組んでいるヘルスケア分野では、どのようにリスクに対して向き合っているのだろうか。宮村の問いに対し小塩は、こんな例を提示し、その危険性を指摘する。
「ChatGPTなどの対話型の生成AIに対して『頭が痛い』という症状を入力して返ってきた答えを見て、患者が『脳梗塞かもしれない』と思い込んでしまうといったことが起きかねません。消費者の心理を過剰に煽ってしまうかもしれないのです」
人の命に関わる分野など、領域によって対処方法を変えるべきだというのが、小塩の主張だ。
「例えば、当たり障りのない会話は生成AIにやらせても問題ないが、医療や健康の問題に関わるような分野の問いかけに対しては、一旦ブレーキをかける仕組みをつくり、リスクマネジメントをするべきです。ソフトウェアとしての品質を担保するような仕組みを構築する必要があると思います」
宮村は、AIのガバナンスに関するガイドラインづくりに関与してきた経験から、本当に守らなければならない部分と、そうではない部分を切り分けることで、イノベーションを阻害せずに進めることができると強調。そのためのルールづくりについて、小塩に意見を求めた。
小塩は「大規模言語モデルはあくまで確率的なモデルであり、人間に近しい回答ができる一方で、ある程度の割合でそうではない回答も出されることがある。何かエラーが起きたときにソフトウェアの開発者が責任を取りなさいという話になってしまうと、社会実装できない」と危機感を表し、そうならないようなルールづくりが必要であると述べた。
「特性を前提としたうえで、社会に受け入れられる受容性を担保し、品質管理の観点から見ても適正なサービスが開発されているということを保証するためのルールをつくっていく必要があります。これは言うのは簡単ですが、実際にやっていくのは非常に難しい。実践しながらルールを決めていくというプロセスがすごく大事になると思います」
宮村は「まさに経産省が言う『アジャイル・ガバナンス』」と同調し、環境づくりの必要性を訴えた。
「実践できるような環境をつくる。これはプラットフォーマーとの関係もそうですし、ステークホルダーを巻き込むためのコンセンサス形成の環境づくりもやっていく必要があります」
実践を進めていくとリスクが明らかになってくるため、それに対処するだけでなく、チャンスの側面もあると小塩は指摘する。
「対話型AIは、個人情報の流出につながるのではないかと言われていますが、実際にそうであるとしたときにどうするのか。1つはプラットフォーマー側に対して情報流出を回避するようにプッシュしていくというアプローチもあるけれども、私たち自身がインターフェースを開発し、個人情報が流出しないような形態をつくる手もあります。それが新しいテクノロジーの進歩になったり、新しいビジネスチャンスになったりということも大いにあり得ると思うのです」
そのためには、まず使ってみることがファーストステップになる。小塩は、生成AIが一過性のブームにならないようにすることが重要だと強調する。
「過去にブームになったディープラーニングは、私たちのような機械学習やデータサイエンスをやっている人間にとっては非常に大きなブレークスルーでしたが、一般の人には届いていませんでした。ところがChatGPTなどの最近の生成AIは、直球で皆さんに届いています。ただしこれはある種の熱狂でもあり、これからが本番です。
ブームの後におそらく『ちょっと期待外れ』という空気が出てくるでしょうが、実は着々と新しい種が撒かれています。しかし期待外れが大きくなってしまうと、社会のAIに対するトラストが下がってしまいます。AIを使う皆様もそうですし、つくり手側も、いかにこれを信頼のあるインフラとして機能させるのかを考え、そのための交流を進めることが重要です」
生成AIの課題のなかにチャンスがある
そして話題は、リスクマネジメントへと移った。小塩は、情報の真実性の問題もあるが、従来のテクノロジー以上に問題となるのは個人情報の保護であり、それが生成AIを普及させるうえでの足枷になると課題を挙げた。「生成AIが個人情報をしっかり理解したうたで、極論を言うとユーザーを洗脳するような対話を仕掛ることもできなくはない。そんな事例が出てきてしまえば、AIに対するトラストが一気になくなってしまう可能性があります。自動運転でも事故を起こすと信頼が一気にゼロになりますが、それはおそらく生成AIでも起きるので、丁寧に進めなければなりません」
小塩は、その解決方法を提示する。
「大規模言語モデル(LLM)は、有象無象のデータの中から確からしいことを語るモデルなので、必ずしも生の個人情報を必要としません。ですので、生のデータを加工、擬似化して使用することも可能です。例えば自分の趣味嗜好はAIに伝播するけど、個人情報は漏れないといった仕組みは構築できるのではないかと考えています。それだけで解決できるわけではありませんが、個人情報の問題に対する1つのアプローチにはなります」
これについて宮村は、個人情報だけでなく、企業にも適用できると同調した。
「日本では、データホルダーになっている企業が各産業界にあります。いままでは、知的財産に関しては『オープンクローズ戦略』(自社技術を標準化、規格化し、他社に自社技術の使用を積極的に許容する戦略)をとっていましたが、データに関するオープンクローズ戦略も生成AIのモデルを使っていくことで実現可能なのではないかという夢をもっています」
最後に小塩は、生成AIがもたらす未来について語った。
「日本はデジタル化が遅れているので、デジタル化して新しい業務システムを入れる際に、いきなりAI付きの業務システムを導入することができます。テクノロジーの世界では、後から来た人のほうが有利な部分もあるのです。私たちが追従者として、上にいる人たちにどうやってずる賢く追い付いていけるかを考えるチャンスだと思います。
もちろんリスクもたくさんあるので、消費者に対して使うのが怖いのであれば、まずは自分たちの業務のなかで使ってみるべきです。そのなかで見えてくることがあるはず。もう少しこうしたらいいのではないか、こういうことができると私たちの業務がステップアップするのではないかといったところが見えたら、それは生成AIの欠点ではなく、チャンスです。大規模言語モデル(LLM)との組み合わせで新しい価値が出せれば、本当に大きなチャンスになるし、それが次世代のための会社の資源になっていくはずです」
小塩篤史◎麗澤大学 EdTech研究センターセンター長/教授、東京大学大学院 情報学環・学際情報学府特任准教授。専門分野はデータサイエンス、人工知能、経営科学、システム科学、統計学、未来学など。 IF 代表取締役CEOなど、スタートアップの経営にも携わる。
宮村和谷◎PwCあらた有限責任監査法人トラストサービス開発サブリーダー、業務DXリーダー、システム・プロセス・アシュアランス担当パートナー。2000年より20年以上にわたり、PwC Japanグループにおいて、さまざまな業種の企業の事業変革(トランスフォーメーション)や事業強化を支援。