AI

2025.12.15 13:56

ステルスAI時代の到来:企業内で密かに広がる革命

stock.adobe.com

ロバート・ローゼンバーグ氏は、ショータイム元EVP兼ゼネラルカウンセルで、現在はMoses & Singer法律事務所のパートナーとして知的財産権、エンターテインメント/メディア、AIおよびデータ法を専門としている。

どのオフィスにも暗黙のルールがいくつかある。魚を電子レンジで温めない。「全員に返信」しない。そして、どうやら四半期報告書を仕上げるのにChatGPTを使わない—少なくとも公式には。

しかし、あなたの職場がAIフリーだと思っているなら、考え直した方がいい。おそらく、あなたの会社の誰かが会議の合間にChatGPT、Gemini、Copilotにこっそりプロンプトを入力している。善意とグレーゾーンが衝突する「ステルスAI」の時代へようこそ。

秘密はもう隠せない

最近の調査によると、従業員の68%がすでに職場で生成AIツールを使用しており、その多くは会社の承認なしに行っている。彼らは悪意あるコーダーやハッカーではなく、時間を節約し競争力を維持しようとするプロジェクトマネージャー、マーケター、アナリスト、弁護士たちだ。そして半数以上が、顧客リスト、予算、製品設計などの機密データを公開チャットボットに入力していることを認めている。

それが無謀に聞こえるなら、なぜ彼らがそうしているのか考えてみよう。同じ調査によると、労働者の57%がAIによって仕事が楽になると述べ、23%が仕事がより楽しくなると答えている。AIは創造性を殺す反復的な雑務を処理してくれる。これは反抗ではなく自己防衛だ。人々は、AIがキャリアの敵ではなく、新たな秘密兵器になり得ることに気づいている。

考えてみてほしい:同僚が洗練されたレポートや機知に富んだ広告コピーを半分の時間で作成しているとしたら、原則だけのために一から入力し続けるだろうか?

利便性の罠

問題は、利便性が注意を上回るときに始まる。従業員が機密文書をチャットボットに貼り付けるたびに、その情報は会社が管理していないサードパーティのサーバーに送られる。データが意図的に共有されなくても、保存、分析、または将来のモデルのトレーニングに再利用される可能性がある。

すでに高い注目を集めた事例がある:サムスンはエンジニアが内部ソースコードをアップロードした後、生成AIを禁止した(登録が必要)。ある大手金融会社では顧客データがチャットボットのログに漏洩した。Grammarlyはユーザーの個人的な文章でトレーニングを行ったと非難された。これらはSF的な仮説ではなく、「役立つ」テクノロジーが一夜にしてコンプライアンス上の悪夢に変わる可能性があることを示す警告だ。

企業のセキュリティシステムは、締め切りに追われて遅くまで働く従業員を止められないかもしれない。ファイアウォールやフィルターは、誰かが午後11時59分にチャットボットの窓に段落を貼り付けるのを防ぐことはできない。

AIもぐらたたきの無意味さ

このようなツールのシャドーエコノミーに直面して、一部の企業は職場でのAI使用を禁止することで問題解決を図ろうとした。コピー禁止、貼り付け禁止、プロンプト禁止。

結果は?まったく変わらない。従業員は個人アカウント、モバイルデバイス、または追跡をさらに困難にする回避策に移行するだけだ。AIの禁止はカフェインを禁止するようなもので、習慣を地下に追いやり、皆をより不機嫌にするだけだ。

他の企業は、無限の免責事項やポップアップ警告を通じてAIの使用を規制しようとしてきた。しかし、良い代替案を提供せずに設けられたガードレールは、安全対策というよりも減速帯のように感じられる。公式の会社チャットボットが遅く、バグが多く、時代遅れであれば、従業員は信頼する公開ツールに戻るだろう。

より賢明な戦略:打ち負かせないなら、統合せよ

先見の明のある企業は、禁止令でステルスAIと戦うことはできないと理解している。本当の解決策は、公認ツールをより良くすることだ。

マイクロソフトは将来を見据え、AIをOfficeソフトウェアに直接組み込み、WordやExcelを競合ではなくコパイロットに変えた。セールスフォースはAIを顧客関係管理(CRM)システムに直接統合し、マーケティングチームが企業の壁の中で安全にキャンペーンを生成できるようにした。JPモルガン・チェースは、社内AIコパイロット(登録が必要)を作成し、内部データでトレーニングし、銀行グレードのセキュリティの背後にロックすることで、法的な頭痛の種なしに従業員にすべてのメリットを提供した。

これらの企業は自社を保護すると同時に、従業員も満足させた。メッセージはシンプルだ:承認された方法がより速く、より安全であれば、人々はそれを選ぶだろう。

法的なワイルドカード

利便性の裏には、増大する法的リスクも潜んでいる。米国と欧州の規制当局はプライバシー規則を強化しており、AIデータ露出は急速に彼らのアジェンダのトップに移動している。顧客情報をチャットボットにアップロードする従業員が一人いるだけで、データ保護規則、州のプライバシー法、または契約上の義務に技術的に違反する可能性がある。

それは単に罰金待ちではなく、PR災害でもある。最大の顧客に対して、彼らの機密データが生成モデルのトレーニングセットのどこかに「生きている」可能性があると説明することを想像してみてほしい。

より賢明な文化の構築

では、ステルスAIを負債から利点に変えるにはどうすればよいのか?まず、それが消えないことを受け入れることから始めよう。AIは新しいEメールになった:一度到来すると、箱に戻すことはできない。目標は今や封じ込めではなく、コントロールだ。

最良のアプローチは、インセンティブと常識を組み合わせることだ。公開バージョンと同等の能力を持つAIツールを提供し、従業員に責任ある使用方法を教育し、単に「ダメ」と叫ぶのではなく、セキュリティルールが存在する理由を説明する。「禁止」のメンタリティを透明なフレームワークに置き換える:何が許容され、何が禁止され、どこに線が引かれるのか。

同様に重要なのは:会話をオープンに保つことだ。従業員にAIをどのように使用しているか、どのような問題を解決しているか、実際にどのような機能が必要かを尋ねる。彼らを監視すべき規則違反者としてではなく、AIストラテジーの共同設計者として扱う。それが信頼を構築し、秘密裏の活動を表に出す。

結論

ステルスAIは、従業員が企業ポリシーを先取りしているというシグナルだ。彼らは生産性向上の味を知り、それを手放すつもりはない。

この新時代に繁栄する企業は、そのエネルギーを安全にチャネリングし、従業員がすでにいる場所で彼らに会うツールとルールを構築する企業かもしれない。残りの企業はAI使用がオプションであるふりを続けるかもしれないが、次のデータ侵害がその逆を証明するまでだ。

なぜなら、真実はこうだ:あなたの会社で最も危険なAIは、従業員が使用しているものではない。それは、あなたが彼らが使用していることを知らないAIなのだ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事