AI

2025.12.13 16:41

AIによるコード生成:セキュリティリスクと生産性向上の両立

stock.adobe.com

stock.adobe.com

Liav CaspiはLegit SecurityのCTO兼共同創業者。サイバーセキュリティに関する豊富な経験を持つテクノロジーリーダー、プロダクト戦略家、起業家である。

advertisement

ソフトウェア開発はかつてないスピードで進んでいる。開発者の4分の3が現在AIツールを使用してコードを書いており、これは昨年の70%から増加している。Robinhoodのような企業では、本番環境にプッシュされる新しいコードの大部分をAIが生成している。

開発者が記録的なスピードでアプリケーションを構築できる一方で、生産性とセキュリティの間に重大なギャップが生じている。

当社の2025年アプリケーションリスク状況レポートによると、組織の71%がソースコードでAIモデルを使用しており、46%が危険な方法で使用している。例えば、信頼性の低いモデルを使用したり、コードレビュー要件やブランチ保護などの安全対策を怠ったりしている。これはセキュリティチームがAIの使用場所、アクセスするデータ、保護対策の有無を把握していないという可視性の問題に起因している。

advertisement

開発者の生産性を向上させる同じ技術が、従来のセキュリティツールでは検出できない盲点も生み出している。開発者がAIツールに適切な範囲設定なしで、メールへの完全アクセス、リポジトリ権限、クラウド認証情報を接続するケースが見られる。AIはコードを読み、改善を提案するように設計されているかもしれないが、機密データへのアクセスや不正な変更を防ぐものは何もない。

組織はAIの生産性向上を活かしながら、新たに生じるセキュリティリスクを軽減するための戦略的アプローチを実装する必要がある。

AI生成コードは想定以上のコストをもたらす可能性がある

最近、コード開発を支援するはずだったAIエージェントが、アクティブなコードフリーズ中に企業のデータベース全体を削除するという事件があった。AIには自律的にアクションを実行する権限が与えられており、チームが何が起きたかを発見してエージェントに問いただしたとき、AIはただ致命的な判断ミスを犯したと応答するだけだった。

この事件は、AIが適切なガードレールなしで導入された場合に起こることの恐ろしい予兆である。

また、AIがセキュリティチームが対応できないほど広範な問題を生み出していることも浮き彫りになっている。開発者はかつてないほど速くコードを生成できるが、レビュー、脆弱性評価、セキュリティテストはしばしば遅れをとる。これにより、安全でないAI生成コードがすり抜ける盲点が生まれる。セキュリティ対策の欠如に関する当社の調査結果と一致して、他の研究ではAI生成コードのほぼ半分にセキュリティ上の欠陥が含まれていることが示されているが、厳しい期限に間に合わせるためにAIを使用する開発者は、AI生成コードのレビューをしばしばスキップしている。

専門知識のギャップがこの問題をさらに悪化させている。シニア開発者は通常、AIが悪い提案をしているときに気づくことができるが、ジュニア開発者はしばしばその違いを見分けられない。一方、セキュリティチームは適切なガードレールなしでAIが使用されていることを発見し続けている。当社のレポートデータによると、組織あたり平均17%のリポジトリで、開発者がブランチ保護やコードレビュープロセスなしでAIツールを使用している。

スマートなガバナンスが競争優位性をもたらす

AIは産業革命時の電気のようなものだ。変革をもたらすが、適切な知識がなければ危険である。組織はAIを安全に使用するための適切な手順が必要だ。

最も効果的なアプローチは、すべてのAI生成コードに何らかの欠陥があると仮定することから始まる。この前提に基づき、可視性とセキュリティの両方に焦点を当てる。組織が優先すべきことは:

発見:AI生成コードを特定し、開発環境でAIコーディングツールがどこで使用されているかを追跡する能力が重要になっている。

AIを活用したアプリケーションのセキュリティテスト:アプリケーションにモデルやエージェントなどのAIコンポーネントが含まれている場合、AI固有のセキュリティテストが必要だ。これらのアプリケーションには、プロンプトインジェクション、モデル汚染、過剰なエージェンシーなど、OWASPのLLM&生成AIトップ10で詳述されている従来のスキャナーでは発見できない新しい脆弱性がある。

安全なAIコーディングエージェント:コードを書いたり開発者を支援したりするAIエージェントは、プロンプトインジェクション攻撃によって簡単に操作されたり、機密データを第三者に公開したり、意図しない有害な操作を実行したりする可能性がある。組織はリスクを防ぐためにエージェントにセキュリティガードレールを設置する必要がある。

脅威モデリング:組織のリスクが進化するにつれて、脅威モデルも適応する必要がある。アプリケーションにAIインターフェースが含まれるようになった場合、エージェントを実行する場合、またはユーザー入力をモデルで処理する場合、新たなリスクセットが導入される。

有害な組み合わせの認識:コード開発でAIを使用すること自体はリスクではない。しかし、静的解析チェックやブランチ保護などの安全対策が欠如している場合、全体的なリスクは増加する。

適切なAIガバナンスにより、組織は可視性とセキュリティを維持しながら生産性向上を実現できる。このバランスの取れたアプローチにより、セキュリティインシデントにつながる盲点を作ることなく、より速い開発サイクルが可能になる。

AIは問題であると同時に解決策でもある

最終的に、AIは純粋に有益でも純粋にリスクがあるわけでもない。現実はより微妙だ。AI生成のリスクに対して、人間規模のプロセスだけで防御することはできない。組織は現代の開発速度に対応した自動化された継続的なモニタリングが必要だ。

幸いなことに、セキュリティ上の課題を生み出しているのと同じAI機能が、長年のアプリケーションセキュリティ問題を解決する可能性も秘めている。

AIは膨大なデータセットの分析、誤検知の特定と削減、脆弱性の優先順位付けの自動化に優れている。これによりセキュリティチームは管理業務ではなく戦略的な問題に集中できる。AI駆動のセキュリティツールは、問題をコード所有者に割り当てたり、解決策を提案したりするような運用タスクを処理できる。

AIコーディングエージェントに直接セキュリティを組み込む真の機会がある。コードが書かれた後にレビューするのではなく、あるAIエージェントが別のAIがコードを生成するのと同じくらい速くセキュリティレビューと修正を実施できる。問題を後で発見するのではなく、セキュリティが最初から組み込まれるのだ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事