━━SalesforceやServiceNowのように自社版AIツールを開発している会社が増えているので、気を抜けない状況でしょう。Boxにも「Box AI」がありますが、今後もプラットフォームの進化に集中するのでしょうか?
レヴィ:我々の念頭にあるのは、企業が管理する何千億ものファイルを扱っている点です。ライフサイエンス、金融サービス、メディア・エンターテインメント、公共部門、政府機関など、ほぼすべての業界の企業や組織を網羅しています。そのデータの中には、契約書、マーケティング資産、研究資料、文書、請求書、財務記録、映画の脚本、メディア資産などが含まれているわけです。そして、その情報すべてに、まだ活用されていない膨大な価値が眠っています。
自社データに“質問”できれば、次に開発すべき製品、参入すべき市場、アプローチすべき顧客に関する“答え”を得られるでしょう。あるいは、契約書のリスクを事前に特定できるかもしれません。AIが自社の情報やビジネスデータを横断的に見て、より良い意思決定を助けてくれたらどうでしょうか。新たなブレイクスルーを生み出したり、ワークフローを自動化したりしてくれたら?
だからこそ、「AIエージェント」というかたちでコンテンツとAIを結びつけ、そのエージェントをさまざまなワークフローに統合できるプラットフォームを作らなければいけません。いまは、コンテンツとAIがどう混ざり合うかをコントロールする、“内部の配管”に当たるプラットフォーム層を作っています。
━━2023年のインタビューでは、Box AIの利点の一つに、非構造化データを検索・発見・構造化できることがあると話していましたね。そのAIの特性は広く知られるようになりましたが、Boxのもう一つの強みはセキュリティ面の堅牢性にあるかもしれません。
レヴィ:Boxのベン・クスCTO(最高技術責任者)は、うまいこと言っています。彼に言わせれば、「AIエージェントは秘密を守れない」のです(編集部註:「エージェント;代理人」は職務上、顧客に対して守秘義務を負う)。
AIエージェントに、絶対にセキュリティの責任を負わせてはいけないということです。セキュリティはエージェントから独立させておく必要があります。エージェントは、その下層で設定されたセキュリティに従います。つまり、データへの権限設定、アクセス制御、コンプライアンス、そしてAIエージェントの行動に対する「ガードレール」が必要になるわけです。
我々はそうしたシステムを構築し、ユーザーが質問をした際にAIエージェントが誤って情報を漏洩することがないようにしています。これはじつはとても重要で、ひょっとすると「Agent Security(エージェント・セキュリティ)」は21世紀を代表するセキュリティ課題の一つになるかもしれませんよ。


