同時に、企業や組織における対策上の課題も依然として大きいだろう。パロアルトネットワークスが実施した調査では、企業や公共機関の20%が内部不正による個人情報の漏洩を2024年上半期に経験したと回答している。多いと見るか少ないと見るかは見解が分かれるかもしれないが、実際にはより広範に内部不正による個人データの漏洩が発生していると推測される。なぜなら、セキュリティやデジタルモラルに関する教育に多くの企業や組織が注力する一方で、実効性の得られる対策に課題があるからだ。特に、SaaSアプリケーションの利用状況を可視化できていないなど、従業員によるデータ利活用の可視化に課題があるケースが非常に多い。
ChatGPTが話題になってもう2年が経過するが、従業員による生成AIのビジネス利用においても同じ問題が起きている。従業員による生成AIアプリケーションの利用状況を可視化できていないという問題だ。例えば、生成AIアプリケーションに従業員が顧客データをはじめとした業務データをプロンプト入力していないかどうか把握できていないという問題は多くの企業でみられている。「利用状況が見えているかいないか」ではなく「ルールで禁止しているから使っていないはず」「事故は起きていないので漏れていないはず」といった希望的観測も漏れ聞こえてくる。