AI

2025.11.13 18:44

生成AIのリスク管理:イノベーションを阻害せず、職場での安全性を確保する方法

Shutterstock.com

Shutterstock.com

カメリア・チャン氏は、次世代AI搭載ハードウェアサイバーセキュリティソリューションプロバイダーであるフレクソンのCEO兼共同創業者である。

「この契約書をレビューして、異常がある部分をハイライトしてください」

聞き覚えがあるだろうか?生成AIモデルとの一見無害なやり取りだ。あなたは会社の文書をChatGPTに貼り付けて「これをレビューして」と入力する。数秒以内に、機密文書の分析結果が手に入る。

迅速で簡単、そして無害に感じる。しかし気づかないうちに、あなたは機密性の高い企業データを公開AIモデルにアップロードしてしまい、それは組織の管理外に置かれてしまうのだ。

このシナリオは単なる理論上の話ではない。2025年のNetskopeレポートによると、企業ユーザーの約20人に1人が定期的に生成AIツールを使用している—そしてこれらのプラットフォームに送信される内部データは前年比で30倍に急増している。同じレポートでは、このシャドーAI利用—つまり従業員が個人アカウントで使用すること—の72%がIT部門の監視外で発生していることが判明した。

重要なのは、これは悪意ある行為者の問題ではなく、利便性の問題だということだ。従業員はただ、よりスマートに働こうとしているだけなのだ。

しかし、そのプロセスにおいて、彼らは知らず知らずのうちに内部脅威へと変化し、従来のセキュリティシステムの監視下で検出を逃れてデータを漏洩させている。

生成AIが引き起こす内部脅威の状況

生成AIツールは、データのコピー&ペースト以上の新たなリスクをもたらす。プロンプトインジェクション攻撃では、隠されたコマンドが文書やクエリに埋め込まれ、これらのシステムを乗っ取って機密情報を明かしたり、セキュリティプロトコルを無視したりする可能性がある。その他のリスクには、データ汚染、コンテキストハイジャック、大規模言語モデル(LLM)のメモリ持続性などがあり、キャッシュされたクエリやコンテキストの再利用により、後続のユーザーに機密情報が露出する可能性がある。

重要なのは、カリフォルニア大学サンディエゴ校(UCSD)のImprompterのような実世界での悪用例があり、これは難読化されたプロンプトを通じて個人データを抽出する成功率が約80%に達していた。機密情報がLLMやそのキャッシュされたクエリに残存する場合、脅威モデルは悪化し、プライバシーと規制要件の両方に違反する可能性がある。

これらのリスクは、従業員が知らずにAPIキー、ログイン認証情報、機密ファイルなどの機密情報を生成AIプラットフォームに公開した場合に増大する。そのデータが保持または傍受されると、攻撃者はそれを悪用して信頼されるユーザーになりすまし、企業システムに検出されずにアクセスする可能性がある。

このような場合、アクセスが正当に見え、データフローが暗号化されたチャネルを通過する可能性があるため、従来のセキュリティツールはその活動にフラグを立てることができないことが多い。

従来のセキュリティだけでは不十分な理由

データ損失防止(DLP)やユーザーおよびエンティティ行動分析(UEBA)などのネットワークレベルの防御は、階層化されたセキュリティ戦略の重要な部分である。

これらのソフトウェアツールは、ネットワークとアプリケーション全体のアクティビティを監視し、大規模なデータエクスポートや異常なファイルアクセスパターンなどの危険な行動をスキャンする。従業員が機密ファイルを未承認のクラウドプラットフォームや外部の生成AIツールにアップロードした場合にフラグを立てることができる。

しかし、制限もある。多くはネットワークトラフィックや承認されたアプリケーションへの可視性に依存している。しかし、従業員が機密文書を公開生成AIプラットフォームにアップロードする場合、これらのアクションは簡単にログ記録と監視をバイパスできる—特にトラフィックが暗号化されているか、個人アカウントを通じてルーティングされている場合はなおさらだ。また、認証情報が侵害された場合、攻撃者は内部から操作し、ネットワーク保護を完全に回避することができる。

重要な欠けているパズルのピースは、データが存在する場所—エンドポイントのメモリ—でのセキュリティ強化にある。

生成AIリスク管理にハードウェアベースのゼロトラストを組み込む

ハードウェアレベルのゼロトラストはこれらのギャップを埋めるのに役立つが、これは暗号化やキー管理などの受動的なセキュリティ以上のものを含む。

暗号化は保存中または転送中のデータを保護するために不可欠であり、効果的なキー管理は未承認のユーザーのみがブロックされることを保証する。しかし、暗号化は主に受動的な攻撃者から守るものだ。アクセスが許可されれば、暗号化はバイパスされる。

暗号化を超えて、ハードウェアレベルのゼロトラストには以下も含まれるべきだ:

1. チップセットやSSDレベルでのアクセス試行の継続的な検証。

2. 大規模な転送や大量削除など、異常なデータの読み取り/書き込みの異常検出。

3. データがデバイスを離れる前に不審なアクティビティをブロックする自律的なロックダウン。

正当なログイン認証情報が使用されている場合に異常なアクティビティを検出できない従来のソフトウェアツールとは異なり、ハードウェアレベルのセキュリティは、物理層で大量のファイル転送や異常な読み取り/書き込みアクティビティなどの異常なアクセスパターンを検出できる。

つまり、SSDなどのメモリチップセットやその他のストレージメディアのことだ。これはユーザー認証情報やネットワークの可視性に依存しない。代わりに、データがデバイスを離れる前に不審な転送を自律的にブロックし、アクセス認証情報の侵害後でも脅威を効果的に無効化する。

生成AIを意識した内部脅威戦略の構築

ハードウェアレベルのゼロトラストは強力だが、セキュリティをシステムの上に適用するものから、データが物理的に存在する場所に組み込むものへとパラダイムシフトが必要だ。利点は、ハードウェア層の保護が通常、既存のITスタックとは独立して動作することだ。この独立性は強みだが、それでも投資と文化的な受け入れが必要だ。

そのため、ハードウェア層の保護は、真に回復力のある内部脅威戦略を構築するために、ガバナンス、教育、ネットワークベースの監視と組み合わせる必要がある。これには以下が含まれる:

1. ガバナンスとAI対応ポリシー:承認されたAIツールを定義し、許可されるデータタイプを指定し、従業員の証明を要求する。

2. 教育と文化:多くの従業員は、生成AIツールに機密データを与えることに関連する危険性を認識していないかもしれない。AIが敵ではなく味方となるよう、適切なリテラシーと明確なガイドラインで彼らを強化することが重要だ。

3. ソフトウェアベースのセキュリティ監視の維持:DLP、UEBA、行動分析などのツールは、外部ネットワーク、クラウドプラットフォーム、SaaSアプリケーション全体で既知の危険なアクティビティを特定するために不可欠である。ソフトウェアは既知の脅威から外部環境を保護し、ハードウェアは外部防御をバイパスしたゼロデイ脅威を無効化する。

生成AIを安全に—禁止しない

目標は職場での生成AIを禁止してイノベーションを抑制することではなく、可能な限り安全にすることだ。サンプルプレイブックは次のようになる:

1. 選択された生成AIサービスのセットを承認する。

2. DLPと行動ツールを構成して、大規模なデータエクスポートを監視する。

3. すべてのエンドポイントにインテリジェントなハードウェア保護されたストレージを強制する。

4. どのデータを共有すべきでないか、そしてその理由について、スタッフを訓練する。

生成AI時代において、従業員は通常、悪意があるわけではなく、善意の持ち主だ。しかし、適切な保護措置がなければ、彼らは意図せずに内部脅威として行動する可能性がある。LLMの持続性、キャッシュされたコンテキストの再利用、暗号化の制限などのリスクに対処することで、ガバナンス、トレーニング、ネットワーク監視、ハードウェアベースのゼロトラストを橋渡しすることで、生成AIを隠れた脆弱性ではなく、安全な資産に変えることができる。


フォーブス・テクノロジー・カウンシルは、世界クラスのCIO、CTO、テクノロジーエグゼクティブのための招待制コミュニティである。参加資格を確認する


forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事