AI

2025.10.26 16:28

生成AI活用の鍵はセキュリティ対策にあり—企業が今すべき準備

Adobe Stock

Adobe Stock

ミッキー・シン氏はVersa Networksのシニアリーダーであり、新興技術の商業化において実績のあるプロフェッショナルとして知られている。

生成AI(GenAI)は、目新しいものから現代の職場における日常的なツールへと急速に進化した。様々な業界のチームがそのポテンシャルを活用し、タスクの効率化、コンテンツ作成の加速、意思決定のサポートを行っている。導入は急速に進んでいるが、トレードオフがないわけではない。

生産性の向上と引き換えに、データ漏洩、規制違反、セキュリティ脅威、誤情報など、実際のリスクが伴う。生成AIを効果的かつ安全に活用するには、明確なポリシー、慎重なガバナンス、強固な技術的保護措置が必要だ。

本稿では、企業のネットワークセキュリティニーズに関する私の豊富な経験をもとに、生成AIがもたらすセキュリティとコンプライアンスの課題を分析し、それらを管理するための実践的なチェックリストを提供する。

データプライバシーと保護

生成AIが日常業務に組み込まれた現在、最も差し迫った懸念の一つは、機密情報や専有情報が漏洩するリスクだ。従業員は知らず知らずのうちに機密情報をパブリックドメインに入力し、それが権限のない悪意ある第三者によってアクセスされる可能性がある。AI生成コンテンツが意図せず社内の知的財産を明らかにしたり、著作権で保護された素材を複製したりする恐れもある。私が話をした多くの組織は、生成AIツールを何気なく使用することで、機密データがプロンプトに簡単に漏れ出してしまうことに驚いている。利便性から始まったことが、あっという間にセキュリティリスクになりうるのだ。

機密データを安全に保つため、組織はサイバーセキュリティツールを使用して、どのような情報が共有されているかを監視し、その流れを制御すべきだ。生成AIファイアウォールを導入することで、許可されていない「シャドー」AIツールの使用をブロックできる。メール、ブラウザ、生成AIプラットフォームを保護することで、全体を通じた完全な可視性と制御を確保できる。

規制とコンプライアンスのリスク

生成AIの使用は、GDPR、HIPAA、EU AI法、その他の業界固有の基準などのデータ保護規制に準拠する必要がある。適切な管理がなければ、組織はコンプライアンス違反、法的罰則、評判の低下などのリスクにさらされる。

これらのリスクを軽減するため、組織は適用される法律に従って生成AIの使用を管理する明確なポリシーを確立すべきだ。これらのポリシーでは、許容される使用法、データ処理、説明責任の措置を定義する必要がある。生成AIの出力と使用パターンを定期的に監査することは、潜在的な問題を早期に発見し、コンプライアンスを維持し、責任ある使用を強化するために不可欠だ。

誤情報とAIハルシネーション

生成AIの主要な課題の一つは、説得力があるように聞こえるが、不正確、誤解を招く、あるいは完全に虚偽のコンテンツを生成する傾向にあることだ。これらの「ハルシネーション(幻覚)」は、誤った判断、根拠のない主張、評判の低下につながる可能性がある。

これに対処するには、特にAIが重要な意思決定や公的なコミュニケーションに影響を与えるコンテンツを生成する場合、人間を介在させることが不可欠だ。レビューに専門家を関与させることで、モデルが見落とす可能性のある不正確さを捉えることができる。組織は、ドメイン固有のデータで生成AIモデルを微調整することで信頼性を向上させることができる。検索拡張生成(RAG)などの技術は、検証済みの内部ソースに基づいて回答を強化することで、応答の質を高める。

ガバナンスと従業員の意識向上

技術だけでは十分ではない。組織は責任あるAI使用の文化を育む必要がある。これには、生成AIのリスクについて従業員を教育し、明確なガバナンスを確立することが含まれる。スタッフは承認された生成AIツールのみを使用するよう奨励されるべきだ。明確なガイドラインで、許容される使用事例と新しいツールの承認リクエスト方法を定義する必要がある。

企業クライアントとの仕事で、私はしばしば生成AIへの熱意がガバナンスを上回るのを目にする。生成AIは強力だが、適切なガードレールがなければ、解決するよりも多くの問題を引き起こす可能性がある。最大のギャップは技術ではなく、人々が責任を持って使用するようにどのように導かれるか(あるいは導かれないか)だ。責任あるAI文化の構築はオプションではなく、必須だ。AIガバナンス委員会は、倫理、戦略、リスクを監督し、モデルのパフォーマンスとポリシーを継続的に見直すことができる。

生成AI時代のサイバーセキュリティ

生成AIは強力である一方、新たなサイバーセキュリティリスクももたらす。悪意ある行為者がプロンプトを操作して機密データを抽出したり、モデルの動作を変更したりする可能性がある。高度な攻撃では、生成AIモデルをリバースエンジニアリングして脆弱性や専有情報を見つけ出すこともある。

検討すべき主要なサイバーセキュリティソリューションには以下がある:

次世代ファイアウォール

従来のファイアウォールはもはや十分ではない。生成AIファイアウォールは、AIツールによって作成された攻撃対象領域を減らし、生成AIアプリの使用を監視し、許可されていない「シャドー」生成AIの使用を防ぐために特別に設計されている。私が勤務するVersa Networksはそのようなソリューションを提供しているが、Palo Alto Networksなど他のベンダーも市場に存在している。

ゼロトラストアーキテクチャ

生成AIの急速な導入により、ゼロトラストアーキテクチャの採用がこれまで以上に重要になっている。このアプローチでは、すべてのユーザー、デバイス、アプリケーションがリソースにアクセスする前に継続的に認証され、承認されることを保証する。不正アクセスとデータ侵害から効果的に保護するには、リモート環境とオンプレミス環境の両方で一貫してゼロトラストを適用する必要がある。このアプローチを採用したソリューションを提供するテクノロジー企業はいくつかある(当社を含む)が、十分な調査を行うことが重要だ。

ユーザーおよびエンティティの行動分析(UEBA)

UEBAは、異常なデータリクエスト、不審なログイン時間、機密ファイルへのアクセス試行など、通常とは異なる活動を検出する。行動を常に分析することで、今日のAI駆動型の脅威に対する賢明な保護層が追加される。出発点として、DTEX、Microsoft、Splunk、Versa Networksなどのベンダーを検討するとよい。

メールコミュニケーションの保護

メールはサイバー攻撃の主要な経路であり続けており、生成AIによってフィッシングやソーシャルエンジニアリング攻撃はこれまで以上に説得力を増している。AI強化型メールセキュリティツール(Abnormal SecurityやBarracuda Networksなどのベンダーが思い浮かぶ)は、アカウント乗っ取り検出、送信メール分析、リアルタイムの脅威識別を提供する。

エンドポイントセキュリティ

ラップトップやモバイルデバイスなどのエンドポイントは生成AIツールがアクセスされる場所であり、セキュリティ体制の重要な部分を担っている。CrowdStrike Falcon、SentinelOne、Bitdefenderなどの最新のエンドポイント保護プラットフォームは生成AIを統合し、リアルタイムで脅威を検出し、インシデント対応を自動化し、デバイス全体で異常を検出する。

AIを安全に活用する

生成AIは今後も存続し、サイバーセキュリティへの影響はさらに大きくなるだろう。適切な基盤を整える組織は、リスクを軽減するだけでなく、AIを現代の脅威に対する力の乗数として活用できるようになる。行動し、推論し、適応できるエージェント型AIシステムにより、セキュリティチームはインテリジェントで先見性があり、回復力のある防御を構築する必要がある。目標は生成AIが何をするかもしれないことから守るだけでなく、それを賢く使用し、AIが課題であると同時に解決策でもある世界で一歩先を行くことだ。

最終的に、私たちが今、生成AIセキュリティにどのようにアプローチするかが、今後何年にもわたってこれらのツールの信頼性を形作ることになる。先見の明を持って行動する人々は、この新しいAI時代で繁栄するだろう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事