意外に低いセキュリティー意識
シャドーAIの最大の問題点はセキュリティーだ。生成AIはほぼ社外のサービス。それを利用するということは、社内のデータを外に出すことになる。そのなかには厳重に保護しなければならないものもあるはずだ。事実、非公式AIツールのユーザーも、以下のセキュリティー上の問題を認識している。
・無許可のAIは組織のデータに中程度または重大なリスクをもたらす。
・未検証のAIツールは不正確または偏った結果を導く可能性がある。
・自社の機密情報が流出する可能性を中程度または深刻なリスクと捉えている。
・無許可AIツールの使用が自社の企業イメージを損なう可能性がある。
とは言え、こうした無許可AIツールのセキュリティー上のリスクを認識している人は21パーセントに過ぎない。しかも33パーセントはリスクについて「まったく考えたことがない」と答えている。
データの流出だけではない。安全性が確認されていないAIツールには脆弱性の問題もある。悪質な攻撃者たちには人気ツールの脆弱性情報が知れ渡っているので、そうしたツールを安易に使えば、一発で侵入を許すことになる。
企業は、なぜシャドーAIがいけないのか、なぜ性能は多少劣っても公認のAIツールを使わなければならないのかを従業員に教育する必要がある。SThreeは、それが「公式に提供されているテクノロジー環境が不十分である可能性を示すとともに、企業の方針を最新化する重要性を示唆」しており、従業員にリスクを理解させる一方で、企業側も「ニーズに合った安全な公式AIツールを提供すること」が重要だと指摘している。


