AI

2026.02.07 12:57

次世代AI競争の鍵を握る「クローズドループAI」とデータ主権

AdobeStock_1874556572

AdobeStock_1874556572

ルイス・アントニオ・ディアス氏はOfferioAIのCEOである。


AI(人工知能)は、その進化において奇妙な瞬間を迎えている。意思決定に影響を与え、物語を形成し、大規模に業務を加速させるのに十分な力を持つ一方で、真に重要な場面で使用されるほどの信頼はまだ得られていない。

この緊張関係こそが、データ主権とクローズドループAIという2つの概念が、多くの組織がAIの未来を考える上で静かに中心的な位置を占めつつある理由である。

データ主権とクローズドループAIの理解

データ主権はしばしば法的または技術的な用語で議論されるが、その核心は権限の問題である。組織の意思決定を定義するデータを誰が管理するのか。そのデータはどこに存在するのか。そして、そこから生み出されるものに対して最終的に誰が責任を負うのか。機密性の高い環境で活動する政府、機関、企業にとって、これらの問いは公共の信頼、規制上の責任、業務上の信頼性の基盤となる。

クローズドループAIは、この原則の上に直接構築されている。データが外部に流出し、ロジックがしばしば不透明なままであるオープンシステムとして機能する公開AIツールとは異なり、クローズドループAIは組織自身の環境内で完全に機能するよう設計されている。情報がシステムに入り、インテリジェンスが生成され、ループが閉じる。外部と共有されることも、公開トレーニングモデルに吸収されることもない。最も重要なのは、組織がシステムが生み出すものを理解し、検証し、その責任を負う能力を保持することである。

この区別が重要なのは、私の経験では、今日のAIに対する不快感の多くは能力に関するものではなく、信頼と管理に関するものだからである。

オープンソースAIに依存するリスク

公開AIシステムは、アイデア、要約、下書きコンテンツの生成において驚くほど効果的であることが証明されている。しかし、それらは設計上、確率的でもある。同じ入力から異なる答えに到達することがある。情報源を捏造することもある。これは最も一般的にAIハルシネーション(幻覚)と呼ばれる問題である。そして、そうした場合、出力がどのように、なぜ生成されたのかを説明する明確な方法がないことが多い。このトレーサビリティの欠如は、創造的または探索的な作業では許容されるかもしれないが、正確性、防御可能性、公的説明責任が求められる環境では危険となり得る。

これがどのように展開されるかは、すでに目にしている。ここ数カ月で、デロイトの複数の報告書が、100万ドル以上の価値がある契約を含む政府クライアント向けに作成されたものの中に、検証できないAI生成の引用が含まれていることが判明した。複数の国にわたるこれらの事件の報道は、AIがどのように使用されているかにおける構造的な弱点を浮き彫りにしている。機関が完全に統制できないシステムに依存する場合、完全に説明できないリスクを継承する可能性がある。

これらのケースが露呈したのは、AIの現在の設計とミッションクリティカルな業務に求められる基準との間のギャップであった。政府や規制対象機関は、情報がどこから来たのか、どのように処理されたのか、精査の下で防御できるかどうかを知ることが期待されている。AIがその明確性を提供できない場合、信頼は損なわれる。そして信頼こそが、AIが実験段階を超えて進むかどうかを決定する主要な通貨である。

米国とカナダの両国における規制の枠組みは、この現実を反映している。医療、教育、個人データを管理する法律は、シンプルな期待の上に構築されている。組織は情報を保護し、その使用方法に対する監視を維持しなければならない。プライベート、特権的、または個人を特定できる情報は、それぞれの管轄区域内に留まらなければならず、これはより厳格に執行されつつある。

AIはこの期待から除外されていないが、私が観察したところでは、多くの人々がまだそれに目をつぶっている。AIが機関の意思決定の一部となるにつれ、それは同じ説明責任の境界内で機能すべきである。

クローズドループAIが状況を変える可能性

ここでクローズドループAIが会話を変える助けとなる可能性がある。データ、ロジック、出力を管理された環境内に保つことで、組織はシステムが生み出すものに対する信頼を取り戻すことができる。モデルが完璧だからではなく、定義されたルール内で動作するからである。リーダーは避けられない質問に答えることができる。これはどのデータを使用したのか。なぜこの結論に達したのか。我々はこれを支持できるのか。

信頼は、一度失われると再構築が困難である。現在、多くの組織はAIを慎重に使用し、より多くを信頼していないという理由で、低リスクのタスクに限定している。クローズドループAIは前進する道を提供できる可能性がある。完璧を約束することによってではなく、権限を回復することによってである。機関が自らのAIシステムを管理する場合、それらにより多く依存し始めることができる。そして依存が可能になると、AIはついに意味のある、ミッションクリティカルな価値を提供する空間に移行できる。

クローズドループAIがすべての人に適しているわけではない理由

誰もがクローズドループAIを実装できるには程遠い。第一に、データ主権システムを構築することは集約的なプロセスである。GPUや帯域幅のようなAI対応インフラへのアクセスを得ることも、極めて高額になり得る。それに加えて、モデルをトレーニングするために必要な膨大な量のデータ、そしてそのデータも誤った情報がループに入らないよう慎重に検証されるべきであることを考えると、現時点では、クローズドループAIは大企業や政府での使用に最適なエンタープライズグレードのソリューションであることが明らかになる。

簡単に言えば、個人ユーザーは短期的にはクローズドループAIシステムから恩恵を受ける可能性は低い。そこに、大手企業が従来のオープンソースAIモデルの改善を続け、低ハルシネーションと改善された出力を追求してガードレールを強化する中で、我々の目の前でAI競争が展開されている理由の1つがある。

次のAI競争の段階を定義するのは、最大規模のモデルや最速のツールを展開する者ではなく、自社システムが信頼されるに値する権利を獲得した者となると私は考えている。それがAI覇権をめぐる真の戦いとなるだろう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事