AI

2026.02.25 07:56

AIが変える規制リスク対応──データ品質なくして成功なし

AdobeStock

AdobeStock

強力な新しいエージェント型AIモデルに関する見出しや、潜在的なAIバブルの拡大をめぐる憶測が飛び交うなかで、巨大企業がすでにAIを使って日々実行している中核業務のいくつかを見落としてしまうのは容易だ。その筆頭に挙げられるのが、本人確認(KYC)におけるデューデリジェンスから、航路や倉庫を対象としたコンピュータビジョン(画像認識)によるリアルタイム分析まで、幅広い用途である。リスクやコンプライアンス関連の業務も例外ではない。むしろ、可視化された指標を深掘りするためにAIを活用する好機が到来している。

このテクノロジーの活用は極めて一般的になり、いまや世界有数の法律事務所のM&Aプレイブックにおいても考慮すべき要素となっている。私が先月書いたとおり、法律事務所のLatham & Watkins LLPは最近、AIを活用した新世代のツールにより、買収先のデューデリジェンスを行う企業が、児童労働や人権侵害、その他サステナビリティ関連の問題が事業内部や拡張されたバリューチェーンの中に潜んでいる可能性を、より容易に洗い出せるようになっていると示唆した。こうした問題は企業価値評価を損ない得る。

干し草の山から針を見つける

この進化は理にかなっている。企業が生み出すデータ量はかつてない規模に膨らみ、リスクと規制のモニタリングは、企業がコンプライアンスと報告要件の世界的なパッチワークを乗りこなすにつれて、より断片化し、複雑化している。規制インテリジェンスを、特定目的に絞った支援AIモデルで下支えすることは、まさにAIが価値を発揮し得る典型的なシナリオである。環境・衛生・安全(EHS)から社会的インパクト、炭素排出までのライフサイクルは、人間が管理するには難しい。だが、その連続体はデータが極めて豊富であり、各地域・法域(管轄)ごとのコンプライアンス義務を十分に理解できれば、AIツールで追跡するのは比較的容易になる。

「AIが最も力を発揮するのは、干し草の山から針を見つけるときだ」と、Enhesaの最高AI責任者(Chief Artificial Intelligence Officer)であるアレクサンダー・サドフスキーは説明する。「適切に実装されれば、リスクとコンプライアンスに最適なAIツールは、膨大な規制データベースや生データをインサイトへと変換する」

データ品質が不可欠

ただし、サドフスキーが指摘する「適切に実装される必要がある」という但し書きは重要だ。すべてのAIモデルが、確実に正確な結果を生み出すために必要な、専門性の深さや、法域レベルの粒度の高い詳細情報を備えて開発されているわけではない。企業が不適切なデータを信じてしまえば、まったく新しい種類のリスクを生みかねない。つまり、企業はリスク対応の要求に追随するためにAIへ投資する必要がある一方で、利用しているAIモデルが誤った方向へ導いていないかを確認するため、モデル自体も継続的に把握し、管理しなければならない。

「リスクとコンプライアンスの領域で、AIがゲームを変えたことは疑いようがない。エンロンのデータセットを最新のAIデューデリジェンスツールにかければ、約30秒で組織的な腐敗の証拠を見つけ出すだろう」とサドフスキーは言う。「しかし、現在のユースケースでこれらのツールを現実に適用するには、超ローカルな規制要件と個別の事業慣行を結びつけるために、内外の膨大なデータが必要になる。製造施設の標識要件や地域の雇用法のような基本的な事項でさえ、正確な結果を得るには相互参照と検証ができなければならない」

網羅的なデータなしに強力なAIは成り立たない

サドフスキーが強調する問題は、このコラムで私が繰り返し立ち返っているテーマでもある。強固な事業リスク管理は、結局のところ「正しいデータ」に尽きる。既製のAIモデルには、さまざまなレッドフラッグ(危険信号)やコンプライアンス上の推奨事項を浮かび上がらせる計算能力が備わっているかもしれない。だが、基盤となるデータが、当該企業固有の要件および事業を行う各法域における責務に適合するかどうか、厳密に検証(ストレステスト)されていなければ、役に立たない。入力と出力の段階における人間の専門家は、重要であるだけでなく不可欠である。その専門家層がなければ、データは有用性に欠けるどころか、あからさまに有害になり得る。

例えば、私がよく遭遇する典型例は、企業が海外へ事業拡大するケースである。企業はしばしば、いかにも単純に見える行政上の要件を満たせず、法域固有の環境・衛生・安全法に直ちに抵触してしまう。新たな地域へ進出する際、例えば下請け業者の管理に関する法域固有の義務が、非常に具体的な許認可や作業書式の要件に従う必要があること、または現代奴隷制に関する法令に抵触しないことを確認するための評価が必要であることを、企業が認識していない場合に、こうした事態は頻繁に起きる。

細部に宿る

理論上、そうした地域要件を社内の方針や手順と相互参照する作業は、AIにとって容易である。だが、その極めて法域特有で、かつ企業固有のデータは、AIモデルに統合して活用できるようになる前に、特定され、収集され、適用されていなければならない。

結局のところ、すべてはデータに帰結する。事業リスクとコンプライアンスの世界は、グローバルなコンプライアンス戦略の成否を分け、企業の評判に深刻な影響を及ぼし得る、こうした小さなディテールに満ちている。AIによって、より多くの企業がより広範囲を、より速くカバーできるようになっている一方で、使用するモデルが自社固有のリスク・エクスポージャー(リスクへのさらされ方)に合わせてファインチューニング(微調整)されていることが決定的に重要だ。モデリング技術は、それが築かれる基盤の良し悪し以上にはならない。落とし穴を避けたい企業は、その基盤が構造的に健全であることを確かめる必要がある。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事