Eric Reicin(エリック・ライシン)氏、より信頼性の高い市場を目指す非営利組織BBB National Programsの社長兼CEO。
つい最近まで、AI(人工知能)システムは人間からの指示を待つだけだった。チャットボットに質問すれば回答し、機械学習モデルにデータを提供すれば予測を行った。しかし、新たな局面が展開されつつある。AIツールはただ応答するだけでなく、行動を起こし、ビジネスの業務フロー、消費者向け製品、プラットフォームにますます組み込まれるようになっている。また、システム間を移動し、新しい状況や予期せぬ状況に対応することもできる。
エージェント型AIとして知られるこの新興クラスのツールは、目標を設定し、人間が関与しながらも(ほとんど、あるいはまったく人間の指示なしに)行動することができ、高度なパーソナライゼーションと文化的な適応力を備えている。エージェント型AIは答えを見つけるだけでなく、意思決定を行い、それを実行することもできる。
ビジネス取引を実行したり、特定の専門知識を持つ他のエージェントと協力したりするために、複数のエージェントが連携するケースがますます増えている。この変化は、企業や非営利組織に大きな機会をもたらす。確かに、AIエージェントが産業で失敗するといった広く報道された事例など、予想される課題はあるが、その可能性は計り知れない。
エージェント型AIの本質は、自律性(段階的な人間の指導なしに操作する能力)、目標指向性(特定の成果を達成するための計画能力)、行動能力(カスタマイズを伴い、現実世界やデジタル世界で変化をもたらす力)を組み合わせたものである。
エージェント型AIが企業のために実行する可能性のある実用的なステップ
カスタマーサービスでは、エージェント型AIが請求書を自動承認したり、購入の払い戻しを行ったり、サプライヤーから在庫を再注文したり、旅行計画を立てたり、メールを確認して返信したり、広告を購入して最適化したり、法務やコンプライアンスチームに問題をエスカレーションしたりする可能性がある。金融管理の文脈では、エージェント型AIが市場動向を分析し、ポートフォリオを調整し、即座に取引を実行することができる。エージェントには汎用的なものと専門的なものがある。
反応型から能動型へのAIの飛躍は大きい。従来のAIは、尋ねられた時に入力を処理していた。エージェント型AIは、問題に気づき、計画を立て、実行し始める同僚のようなものだ—時には、あなたが朝のメールを読む前に、他のエージェント同僚と一緒に作業を始めることもある。
エージェント型AIとそのパーソナライゼーション能力が組織にもたらす意味
生産性の飛躍的向上、新しいサービスモデル、より速いイノベーションサイクルは、多くの潜在的利点のほんの一部にすぎない。マーケティングにおけるエージェント型AIは、数週間ではなく数日で新しいキャンペーンを設計し、開始することができる。サプライチェーンのエージェント型AIは、混乱が発生する前に不足を予測し、注文を変更することができる。
しかし、自律性にはリスクの可能性とコンプライアンスのガードレール、ベストプラクティスの必要性が伴う。エージェント型AIは、その作成者やユーザーを驚かせたり、害を与えたりする方法で行動する可能性があり、一部の人々は組織がそのリスクに対応する準備ができていないことを懸念している。
ガバナンスの課題
AIガバナンスは常に複雑だった。しかし、エージェント型AIはこの方程式をさらに複雑にする。なぜなら、これらのツールやシステムは単なるアドバイザーではなく、行動主体だからだ。それは説明責任、安全性、人間の関与、プライバシー、透明性の問題を提起する。エージェント型AIは法律が適応できるよりも速く進化している。
世界中で、政府はさまざまなアプローチを試みている。欧州連合のAI法は「高リスク」システムに対する広範な要件を設定している。今年初め、EUは消費者が特定の損害について訴訟を起こすことを可能にしたであろうAI責任指令を推進する取り組みを取り下げた。米国では、規制環境はより分野別であり、FTCやFDAなどの機関が既存の法律をAIの文脈に適用し、最近の政権の大統領令とAIアクションプランがイノベーションを奨励している。当然のことながら、中国は国家の監視と管理を強調する規則を導入している。
米国におけるエージェント型AIの統制には、いくつかの相互排他的でない選択肢がある。
• 政府規制:従来の規制は説明責任と執行力を提供する。政府は最低限の安全基準を設定し、テストを要求し、悪質な行為者を罰することができる。欠点は、技術が法律よりも速く進化すること、過剰規制がイノベーションを阻害する可能性があること、政府の規制プロセスが常に最適な結果をもたらすとは限らないことである。
• 業界の自主規制:業界は長い間、自主的な行動規範、技術標準、認証プログラムを開発してきた。例えば、広告の自主規制は、柔軟性を維持しながら、責任ある慣行と効果的な紛争解決を可能にしてきた。自主規制はより迅速で適応性がある。また、2つのエージェントシステムの関与が軌道を外れた場合のモデル紛争解決メカニズム、適切な同意メカニズムとユーザー管理、カスタマイズされた自律性とプライバシー設定、子供、ティーン、高齢者、弱者のための特別なガイドライン、監査など、広範な法律では扱われそうにない問題を解決することもできる。さらに、誤った伝達、バグ、過失、または導入者の開発エラーによって実行エラーが発生した場合の責任者は、多くの場合定義されておらず、自主規制がこれらの複雑な問題を解決する答えになる可能性がある。
• 共同規制:ハイブリッドモデルは、政府の監視と業界の実施を組み合わせる。金融では、規制当局が広範なリスク管理規則を設定し、銀行が詳細なコンプライアンス手順を開発する。このモデルは俊敏性を可能にするが、公共部門と民間部門の間の信頼と協力が必要である。
もちろん、規制の枠組みに関わらず、安全策は不可欠である。ビジネスリーダーは、エージェント型AIの安全な導入を形作る上で独自の役割と責任を持っている。私が以前に書いたように、業界の自主規制は公的監視の代替ではないが、最初で最速の防衛線となりうる。
政府、プラットフォーム、企業、学者、市民社会はすべて役割を担っている。業界は安全性と透明性の高い基準を設定することでリードし、政策立案者はそれらの基準が一貫して公平に満たされることを確保する。
社会の多くの領域がエージェント型AIを注視している。例えば、ナイト研究所は、「高度なAIシステムが民主的自由を害する、あるいは強化するのに役立つ可能性がある方法を研究する」プロジェクトに資金を提供している。アービンド・ナラヤナンとサヤシュ・カプールがその取り組みのために最近指摘したように、AIは「通常の技術」になりつつあり、それは公共政策とビジネス運営の観点からどう扱うかの重要性をさらに高めている。
ガバナンスを適切に行えば、企業にとっては、より明確なガードレールと信頼に基づく市場優位性を意味する。消費者にとっては、エージェント型AIシステムとのより安全で公平、透明な相互作用を意味する。



