多くの従業員が見落としているAIのリスク
多くの労働者は、AIが時間を節約してくれることばかりに目を向け、潜在的な問題を考慮することを忘れている。最も大きなリスクのいくつかは、目に見えない形で潜んでいる。微妙なポリシー違反から、可能性にすら気付いていないデータ漏えいまで、実際にはさまざまなリスクが存在する。
職場におけるこの課題の規模は驚くべきものだ。調査によれば、AI利用者の44%が社内規定に違反しており、66%は職場で生成AIを使用しながら、それが許可されているかどうかすら把握していない。こうした混乱は、特に企業や規制当局が不正使用の取り締まりを強化し始めた今、即座にキャリアを危険にさらす。
こうしたグレーゾーンで仕事をしている従業員は、懲戒処分や解雇に直面する。取り締まりはますます積極的かつ高度になっており、こうした結果が生じる可能性は高まっている。
従業員は、知らず知らずのうちにAI関連規則を破っている
ほとんどの従業員は、意図的にルールを破っているわけではない。単にルールを知らないだけだ。明確な社内ガイドラインがなければ、AIを使う者は容易にポリシーやコンプライアンス要件に違反してしまう。
多くの組織では、AIに関する方針が不十分か、あるいは存在しない。生成AIに関するガイドラインを定めている企業はわずか34%で、その使用を完全に禁止している企業は6%にすぎない。こうした明確さの欠如により、従業員は、何が許されるのかを推測するしかなく、関係者全員に不要なリスクを生み出している。
AIに関するよくあるルール違反は以下の通りだ。
・承認されていないAIツールを仕事に使用する
・機密情報や専有情報をアップロードする
・AIが生成したコンテンツを、事実確認なしで共有する
AIを過剰に使うと評判を損なう
AIは有用なパートナーになり得るが、過度に依存すると逆効果になる。成果物の多くが自動化されているように見えたり、個人的な洞察に欠けていたりすると、同僚や上司はあなたのスキルを疑い始めるかもしれない。
KPMGの調査によれば、AI利用者の3分の2は、ChatGPTが生成した結果を検証せずにそのまま使っており、56%はAIの誤りによってミスを犯している。さらに半数以上が、AI生成の成果物を自分のものとして提出している。
評判を損なうリスクには以下のようなものがある。
・仕事が一般化あるいは自動化されたように見える
・同僚にあなたのスキルや判断を疑われる
・専門性を示す機会を逃してしまう
AIの利用が会社のデータを危険にさらす
機密情報の共有は、それが明確なものばかりではない。AIツールに詳細な情報を入力すると、たとえあなたが無害だと思っていても、会社の情報が漏れてしまう可能性がある。
AIユーザーのほぼ半数(48%)が、機密性の高い企業データや顧客データを公開AIツールにアップロードしている。従業員がChatGPTに詳細を入力すると、その情報はプラットフォームの学習エコシステムの一部になる可能性がある。
公開AIツールと共有すべきでない機密情報には、以下のようなものがある:
・財務報告や財務予測
・顧客リストや連絡先情報
・人事記録、法的文書、戦略メモ


