キャリア

2025.09.02 11:30

「隠れAI利用」は解雇の可能性も、職場で使う者の4割が社内規定に違反

Shutterstock.com

多くの従業員が見落としているAIのリスク

多くの労働者は、AIが時間を節約してくれることばかりに目を向け、潜在的な問題を考慮することを忘れている。最も大きなリスクのいくつかは、目に見えない形で潜んでいる。微妙なポリシー違反から、可能性にすら気付いていないデータ漏えいまで、実際にはさまざまなリスクが存在する。

advertisement

職場におけるこの課題の規模は驚くべきものだ。調査によれば、AI利用者の44%が社内規定に違反しており、66%は職場で生成AIを使用しながら、それが許可されているかどうかすら把握していない。こうした混乱は、特に企業や規制当局が不正使用の取り締まりを強化し始めた今、即座にキャリアを危険にさらす。

こうしたグレーゾーンで仕事をしている従業員は、懲戒処分や解雇に直面する。取り締まりはますます積極的かつ高度になっており、こうした結果が生じる可能性は高まっている。

従業員は、知らず知らずのうちにAI関連規則を破っている

ほとんどの従業員は、意図的にルールを破っているわけではない。単にルールを知らないだけだ。明確な社内ガイドラインがなければ、AIを使う者は容易にポリシーやコンプライアンス要件に違反してしまう。

advertisement

多くの組織では、AIに関する方針が不十分か、あるいは存在しない。生成AIに関するガイドラインを定めている企業はわずか34%で、その使用を完全に禁止している企業は6%にすぎない。こうした明確さの欠如により、従業員は、何が許されるのかを推測するしかなく、関係者全員に不要なリスクを生み出している。

AIに関するよくあるルール違反は以下の通りだ。

・承認されていないAIツールを仕事に使用する

・機密情報や専有情報をアップロードする

・AIが生成したコンテンツを、事実確認なしで共有する

AIを過剰に使うと評判を損なう

AIは有用なパートナーになり得るが、過度に依存すると逆効果になる。成果物の多くが自動化されているように見えたり、個人的な洞察に欠けていたりすると、同僚や上司はあなたのスキルを疑い始めるかもしれない。

KPMGの調査によれば、AI利用者の3分の2は、ChatGPTが生成した結果を検証せずにそのまま使っており、56%はAIの誤りによってミスを犯している。さらに半数以上が、AI生成の成果物を自分のものとして提出している。

評判を損なうリスクには以下のようなものがある。

・仕事が一般化あるいは自動化されたように見える

・同僚にあなたのスキルや判断を疑われる

・専門性を示す機会を逃してしまう

AIの利用が会社のデータを危険にさらす

機密情報の共有は、それが明確なものばかりではない。AIツールに詳細な情報を入力すると、たとえあなたが無害だと思っていても、会社の情報が漏れてしまう可能性がある。

AIユーザーのほぼ半数(48%)が、機密性の高い企業データや顧客データを公開AIツールにアップロードしている。従業員がChatGPTに詳細を入力すると、その情報はプラットフォームの学習エコシステムの一部になる可能性がある。

公開AIツールと共有すべきでない機密情報には、以下のようなものがある:

・財務報告や財務予測

・顧客リストや連絡先情報

・人事記録、法的文書、戦略メモ

次ページ > 企業がAIを懸念する本当の理由

翻訳=米井香織/ガリレオ

タグ:

advertisement

ForbesBrandVoice

人気記事