経営・戦略

2025.12.22 14:29

企業AI市場の次なる主戦場:オープンソース化とオーケストレーション能力

stock.adobe.com

stock.adobe.com

テクノロジー史上最も変革的なアイデアの一つは、一見シンプルな問いから始まった。「世界を動かすコードを誰もが見て、形作り、共有できるとしたらどうなるか?」この問いがオープンソースを生み出し、インターネットを再構築し、クラウドの仕組みを再定義した。現在、AIも同様の転換点に近づいており、この技術が一部の企業に閉ざされ管理されたままなのか、それともオープンで検証可能かつより広いコミュニティによって形作られるものになるのか、世界は決断を迫られている。

advertisement

表面上は簡単に見える。おなじみの方程式を再利用すればいい:モデルをオープンにし、コミュニティに改良させ、イノベーションが加速するのを見守ればいい。しかしAIは単なるコードではない。学習し、判断し、適応し、行動するため、その振る舞いはソフトウェアのように単純に検査や制御ができない。そのため「オープン性」への道はより複雑になる。透明性はシステムがどのように進化するか、決定がどこから来るのか、そしてそれらの決定がどのように監査されたり大規模にオーケストレーションされたりできるのかを理解することにまで及ぶ必要がある。

政策立案者や開発者たちも、オープン性が本当に何を意味するべきか、そして企業が検査や監査できないAIシステムを信頼できるかどうかという問題と格闘している。7月に発表されたホワイトハウスのアメリカAIアクションプランは、連邦機関にオープンモデルが繁栄できる環境を育成するよう促している。8月にはOpenAIがオープンウェイトモデルであるgpt-oss-120bとgpt-oss-20bを発表し、そのコードとウェイトをApache 2.0ライセンスの下で公開した。ただし、トレーニングデータは非公開のままだ。

この動きは企業AI向けのより深い問いを浮き彫りにした:これが本当に透明性の限界なのか、それとも組織はさらに大きな何かを要求すべきなのか?

advertisement

レッドハットのCEOであるマット・ヒックス氏にとって、OpenAIのオープンウェイト公開のような動きは進歩の兆しではあるが、真のオープンソースAIが求めるものには依然として及ばない。彼は、オープン性はモデルウェイトだけにとどまるべきではないと主張する。なぜならウェイトを共有するだけでは自動的に透明性や制御が生まれるわけではないからだ。AIにおいて、トレーニング中にモデルが学習するウェイト(数値)は、システムが入力をどう解釈し、決定を下し、行動を調整するかを定義する。

ヒックス氏は、企業が依存するシステムを調査、再実行、修正できなければ、実際にはAIを制御できておらず、オープンソースの約束は果たされていないと考えている。

「理想的な世界では、すべてのトレーニングデータとモデルウェイトがオープンソースになるでしょう。これは、標準化されたオープンデータセットが全体的にモデルのトレーニングに使用され、モデルウェイトの基本パラメータも含まれることを意味します。しかし、私たちはまだそこに到達していません」と彼は述べた。それまでは、オープン性の定義はモデルウェイトから始まるべきだが、ベンダーロックインを防ぐオープンなツールとプラットフォームのエコシステムによってさらにサポートされるべきだと彼は考えている。それが、真のオープンソースAIの基盤だと彼は言う。

「モデル分野の最大手プレイヤーの多くが、オープンソースが前進への道、あるいは唯一の道であることに気づき始めています。しかし、モデルだけではなく、モデルやAI対応アプリケーションの構築に使用されるツール、それらが実行されるプラットフォーム、推論サーバーなどに関するオープンソースの取り組みにも注目する必要があります」とヒックス氏は述べた。

組織が推論、適応、行動できるシステムを採用するにつれ、課題はAIが何をするかを見ることから、どのように振る舞うかを調整することへとシフトしている。このシフトがオーケストレーションを不可欠なものにしている理由だ。実際には、オーケストレーションはどのモデルがどのタスクを処理するか、それらの間でアクションをどう順序付けるか、コンピューティングリソースをどう管理するか、そして判断が必要な場合に決定を人間にどう委ねるかを決定するのに役立つ。さらに、AIが切り離された自動化の混乱に陥るのを防ぐ。

この圧力を最も感じているのはサイバーセキュリティ分野だ。可視性や制御のわずかな欠如でさえ、数分で本格的な侵害になりうる。サイバーセキュリティ大手のクラウドストライクは最近、最も速い攻撃者のブレイクアウトタイム(初期侵害から横方向移動までの間隔)を測定し、わずか51秒だったと報告した。これは防御側に検知、解釈、対応するための時間が1分もないことを意味する。

同社の対応は、サイバーセキュリティを自動化を超えて、「エージェンティックセキュリティオペレーションセンター(SOC)」と呼ばれるものへと移行させることだ。これは、オーケストレーションされた人間定義のガードレールの下で協働する、専門化されたAIエージェントの艦隊である。

「SOCワークフローは、スピードと精度を持って実行される複数のドメイン固有タスクを要求します。敵対者がますますAIを活用して攻撃を拡大・加速させる中、一般的な大規模モノリシックAIモデルでは単純に追いつけません」とクラウドストライクの社長マイケル・セントナス氏は私に語った。「エージェンティックSOCにより、アナリストは脅威ハンティング、検知トリアージ、対応などの高インパクトなワークフローを自動化するために、それぞれが特定のタスクに焦点を当てながらも連携して動作するエージェントのアンサンブルをオーケストレーションできるようになります。」

クラウドストライクのエージェンティックセキュリティ戦略:マシンスピードでのオーケストレーション

クラウドストライクのエージェンティックSOC戦略の中心にあるのは、何百万ものアナリスト判断でトレーニングされたセキュリティアシスタント、Charlotte AIだ。同社によれば、Charlotteは現在、多くのワークフローで約98%の精度で人間の結論と一致し、反復的な調査とトリアージを引き受けることで週に約40時間の手作業を削減できるという。

クラウドストライクのセキュリティオーケストレーション、自動化、対応システムであるCharlotte Agentic SOARは、Charlotte、拡大するエージェント群、そしてそれらがサポートする実世界のワークフローを結ぶ結合組織として機能する。各エージェントを孤立したツールとして扱うのではなく、Charlotte Agentic SOARは顧客がエージェントを連鎖させて多段階の調査と対応を行うことを可能にする。検知エージェントがトリアージエージェントをトリガーし、それが次に修復エージェントを呼び出すことができ、すべて人間が定義したガードレールの下で行われる。Charlotte AIは監視し、コンテキストについて推論し、判断が必要な場合にはアナリストにエスカレーションする。

「事前に定義されたステップに従うのではなく、エージェントは人間の作成者が完全に予測できない条件を動的に推論します。アナリストがミッションを定義し、エージェントがコンテキストを共有し、協力し、次の最適なアクションを決定します—すべて人間の監視の下で。これにより、スピードと精度が飛躍的に向上し、防御側にサイバーセキュリティにおける最も価値ある通貨である時間を取り戻します」とセントナス氏は説明した。

セキュリティ分野はオープンソース議論に異なる視点をもたらす。閉鎖的なAIシステムはイノベーションを制限するだけでなく、リスクを隠す。防御側がモデルが他のツールとどう相互作用するかを見ることができなければ、プロンプト攻撃、データ流出経路、操作された動作を捕捉する機会を逃す。エージェンティックAIはその不透明性に対抗する方法を提供している。自律型エージェントがリアルタイムでシステムを監視し、異常にフラグを立て、すべてのアクションをログに記録できるからだ。

「組織がエージェンティックSOCを採用するにつれ、いくつかの分野が重要になります。データ品質と衛生は基盤となり、エージェントが正しい決定を下すための適切な情報を持つことを保証します」とセントナス氏は述べた。「データ駆動型の意思決定とリスク管理の文化が、チームがマシンの出力をどのように解釈し行動するかを導く必要があります。そして強力なガバナンス、つまり何をいつどの程度自動化するかを決定することが、企業がエージェンティック運用をどれだけ安全かつ効果的に拡張できるかを定義します。」

クラウドストライクは最近、強力な2026年度第3四半期決算を報告した。同社によれば、Falconプラットフォームは、SOCチームが必要とするAI駆動の成果を提供しており、この四半期には2億6500万ドルの新規年間経常収益(前年同期比73%増)を生み出し、総ARRを49億2000万ドルに押し上げ、3億9800万ドルの営業キャッシュフローと2億9600万ドルのフリーキャッシュフローを生み出した。

真の競争:誰が誰を制御するのか?

レッドハットとクラウドストライクの哲学は、オープンソースAIが次に向かうべき方向についての共通の見解を示している。未来はハイブリッドモデルにある:オープンで検査可能なシステムと、管理されたエージェンティックオーケストレーションの組み合わせだ。オーケストレーションのないオープン性は、依然として大規模に管理できないシステムへの可視性を生み出す。オープン性のないオーケストレーションは、作成者にのみ応答する、強力で説明責任のないマシンのリスクをもたらす。どちらの結果も企業、規制当局、または一般市民に役立つものではない。

「モデルがエコシステムを作るのではなく、それはエコシステムの一側面に過ぎません。完全なAIスタックを形成するツール、プラットフォーム、推論サーバーなど、すべてがオープンソースのイノベーションによって推進される必要があります」とヒックス氏は述べた。「企業はAIをハイブリッドクラウドの延長として見る必要があります。」

彼はさらに、モデルからツール、プラットフォームに至るまでのオープンソースAIは、オープンソースソフトウェアがクラウドコンピューティングにもたらしたのと同じ選択肢と制御を組織に提供すると付け加えた。

「オープンソースのより高いアクセシビリティは、この創造性を可能にし、既存のモデルを取得して特定のニーズに合わせて修正することを可能にします—ちょうど今オープンソースソフトウェアでできるのと同じように」とヒックス氏は述べた。

真のAI軍拡競争は、より大きなモデルを構築することよりも、信頼でき防御可能なシステムを構築することに向かっているのかもしれない:設計上オープンで、実践的にオーケストレーションされ、企業のスピードとスケールで運用できるシステムだ。その構想が2026年のオープンソースAIの未来をどのように形作るかは、まだ見ぬ未来にある。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事