CEO da Box, Aaron Levie, na ‘Era de Contexto’ da AI
Na quinta -feira, a Box lançou suas boxworks de desenvolvedores anunciando um novo conjunto de recursos de IA, construindo modelos de IA Agentic na espinha dorsal dos produtos da empresa. São mais anúncios de produtos do que o habitual para a conferência, refletindo o ritmo cada vez mais rápido do desenvolvimento da IA na empresa: a Box lançou seu estúdio de IA no ano passado, seguido por um novo conjunto de agentes de extração de dados em fevereiro e outros para pesquisa e pesquisa profunda em maio. Agora, a empresa está lançando um novo sistema chamado Box Automating, que funciona como um tipo de sistema operacional para agentes de IA, dividindo os fluxos de trabalho em diferentes segmentos que podem ser aumentados com a IA conforme necessário. Conversei com o CEO Aaron Levie sobre a abordagem da empresa à IA e o trabalho perigoso de competir com empresas de modelos de fundação. Sem surpresa, ele era muito otimista com as possibilidades de agentes de IA no local de trabalho moderno, mas também estava de olhos claros sobre as limitações dos modelos atuais e como gerenciar essas limitações com a tecnologia existente. Esta entrevista foi editada por comprimento e clareza. Você está anunciando um monte de produtos de IA hoje, então quero começar perguntando sobre a visão de grande porte. Por que criar agentes de IA em um serviço de gerenciamento de conteúdo em nuvem? Portanto, o que pensamos o dia inteiro – e qual é o nosso foco em Box – é quanto trabalho está mudando devido à IA. E a grande maioria do impacto agora está nos fluxos de trabalho envolvendo dados não estruturados. Já conseguimos automatizar qualquer coisa que lide com dados estruturados que entram em um banco de dados. Se você pensar em sistemas de CRM, sistemas ERP, sistemas de RH, já tivemos anos de automação nesse espaço. Mas onde nunca tivemos automação é algo que toca dados não estruturados. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 Pense em qualquer tipo de processo de revisão legal, qualquer tipo de processo de gerenciamento de ativos de marketing, qualquer tipo de revisão de fusões e aquisições-todos esses fluxos de trabalho lidam com muitos dados não estruturados. As pessoas precisam revisar esses dados, fazer atualizações, tomar decisões e assim por diante. Nunca fomos capazes de trazer muita automação para esses fluxos de trabalho. Conseguimos descrevê -los em software, mas os computadores simplesmente não foram bons o suficiente para ler um documento ou olhar para um ativo de marketing. Então, para nós, agentes de IA significam que, pela primeira vez naquela época, podemos realmente explorar todos esses dados não estruturados. E os riscos de implantar agentes em um contexto de negócios? Alguns de seus clientes devem estar nervosos por implantar algo assim em dados confidenciais. O que vemos dos clientes é que eles querem saber que toda vez que eles executam esse fluxo de trabalho, o agente executará mais ou menos da mesma maneira, no mesmo ponto do fluxo de trabalho, e não tem coisas meio que saem dos trilhos. Você não quer ter um agente cometer algum erro de composição em que, depois de fazer os primeiros 100 envios, eles começam a correr soltos. Torna -se realmente importante ter os pontos de demarcação certos, onde o agente inicia e as outras partes do sistema terminam. Para todo fluxo de trabalho, há essa questão do que precisa ter corrimões determinísticos e o que pode ser totalmente agêntico e não determinístico. O que você pode fazer com a Box Automating é decidir quanto trabalho você deseja que cada agente faça antes que ele entregue a um agente diferente. Portanto, você pode ter um agente de envio separado do agente de revisão e assim por diante. Ele está permitindo que você basicamente implante agentes de IA em escala em qualquer tipo de fluxo de trabalho ou processo de negócios na organização. Uma caixa automatiza o fluxo de trabalho, com os agentes de IA implantados para tarefas específicas. Já vimos algumas das limitações, mesmo nos sistemas mais avançados, como Claude Code. Em algum momento da tarefa, o modelo fica sem espaço para a janela de contexto para continuar tomando boas decisões. Não há almoço grátis agora na IA. Você não pode apenas ter um agente de longa duração com janela de contexto ilimitada, vá após qualquer tarefa do seu negócio. Então você precisa interromper o fluxo de trabalho e usar sbagents. Eu acho que estamos na era do contexto dentro da IA. O que os modelos e agentes de IA precisam é o contexto, e o contexto que eles precisam trabalhar está sentado dentro de seus dados não estruturados. Portanto, todo o nosso sistema foi realmente projetado para descobrir qual contexto você pode dar ao agente da IA para garantir que eles tenham desempenho da maneira mais eficaz possível. Há um debate maior na indústria sobre os benefícios de grandes e poderosos modelos de fronteira em comparação com modelos menores e mais confiáveis. Isso coloca você no lado dos modelos menores? Eu provavelmente deveria esclarecer: nada sobre o nosso sistema impede que a tarefa seja arbitrariamente longa ou complexa. O que estamos tentando fazer é criar os corrimãos certos para que você decida como é agêntico que você deseja que essa tarefa seja. Não temos uma filosofia específica sobre onde as pessoas devem estar nesse continuum. Estamos apenas tentando projetar uma arquitetura à prova de futuro. Projetamos isso de tal maneira que, à medida que os modelos melhoram e, à medida que os recursos agênticos melhoram, você apenas obterá todos esses benefícios diretamente em nossa plataforma. A outra preocupação é o controle de dados. Como os modelos são treinados em tantos dados, há um medo real de que dados confidenciais sejam regurgitados ou mal utilizados. Como isso é fator? É onde muitas implantações de IA dão errado. As pessoas pensam: “Ei, isso é fácil. Darei um modelo de modelo de IA a todos os meus dados não estruturados, e isso responderá a perguntas para as pessoas”. E então começa a fornecer respostas sobre dados aos quais você não tem acesso ou não deve ter acesso. Você precisa de uma camada muito poderosa que lida com controles de acesso, segurança de dados, permissões, governança de dados, conformidade, tudo. Então, estamos nos beneficiando das casas de décadas que gastamos construindo um sistema que basicamente lida com esse problema exato: como você garante que apenas a pessoa certa tem acesso a cada peça de dados na empresa? Portanto, quando um agente responde a uma pergunta, você sabe determinadamente que ele não pode recorrer a nenhum dado ao qual essa pessoa não deve ter acesso. Isso é apenas algo fundamentalmente incorporado ao nosso sistema. No início desta semana, o Anthropic lançou um novo recurso para carregar diretamente os arquivos para Claude.ai. É muito longe do tipo de gerenciamento de arquivos que a caixa faz, mas você deve estar pensando em possível concorrência das empresas de modelos de fundação. Como você aborda isso estrategicamente? Portanto, se você pensar sobre o que as empresas precisam quando implantam a IA em escala, elas precisam de segurança, permissões e controle. Eles precisam da interface do usuário, precisam de APIs poderosas, querem a escolha dos modelos de IA, porque um dia, um modelo de IA alimenta algum caso de uso para eles que é melhor que outro, mas isso pode mudar, e não querem ser presos em uma plataforma específica. Então, o que construímos é um sistema que permite ter efetivamente todas essas capacidades. Estamos fazendo o armazenamento, a segurança, as permissões, a incorporação do vetor e nos conectamos a todos os principais modelos de IA que estão por aí.
Fonte