Player Live
AO VIVO
28 de fevereiro de 2026
O Opal do Google mostrou discretamente às equipes empresariais o novo plano para a construção de agentes de IA

O Opal do Google mostrou discretamente às equipes empresariais o novo plano para a construção de agentes de IA

No ano passado, a comunidade empresarial de IA esteve travada em um debate sobre quanta liberdade dar aos agentes de IA. Se for muito pouco, você terá uma automação de fluxo de trabalho cara que mal justifica o "agente" rótulo. Se for demais, você terá o tipo de desastre de limpeza de dados que atormentou os primeiros usuários de ferramentas como o OpenClaw. Esta semana, o Google Labs lançou uma atualização para o Opal, seu construtor de agentes visuais sem código, que silenciosamente chega a uma resposta – e traz lições que todo líder de TI que planeja uma estratégia de agente deve estudar cuidadosamente. A atualização apresenta o que o Google chama de "etapa do agente" que transforma os fluxos de trabalho de arrastar e soltar, anteriormente estáticos, do Opal em experiências dinâmicas e interativas. Em vez de especificar manualmente qual modelo ou ferramenta chamar e em que ordem, os construtores agora podem definir uma meta e deixar o agente determinar o melhor caminho para alcançá-la – selecionando ferramentas, acionando modelos como Gemini 3 Flash ou Veo para geração de vídeo e até mesmo iniciando conversas com usuários quando precisar de mais informações. Parece uma modesta atualização de produto. Não é. O que o Google lançou é uma arquitetura de referência funcional para os três recursos que definirão os agentes corporativos em 2026: Roteamento adaptativo Memória persistente Orquestração human-in-the-loop …e tudo isso é possível graças ao rápido aprimoramento das habilidades de raciocínio de modelos de ponta como a série Gemini 3. O ponto de inflexão ‘fora dos trilhos’: por que modelos melhores mudam tudo no design do agente Para entender por que a atualização do Opal é importante, você precisa entender uma mudança que vem crescendo em todo o ecossistema de agentes há meses. A primeira onda de estruturas de agentes empresariais — ferramentas como as primeiras versões do CrewAI e os lançamentos iniciais do LangGraph — foi definida por uma tensão entre autonomia e controle. Os primeiros modelos simplesmente não eram confiáveis ​​o suficiente para serem confiáveis ​​na tomada de decisões abertas. O resultado foi o que os praticantes começaram a chamar "agentes nos trilhos": fluxos de trabalho fortemente restritos onde cada ponto de decisão, cada chamada de ferramenta e cada caminho de ramificação tinham que ser pré-definidos por um desenvolvedor humano. Essa abordagem funcionou, mas foi limitada. Construir um agente sobre trilhos significava antecipar todos os estados possíveis que o sistema poderia encontrar – um pesadelo combinatório para qualquer coisa além de tarefas simples e lineares. Pior ainda, significava que os agentes não poderiam se adaptar a situações novas, a mesma capacidade que torna a IA agêntica valiosa em primeiro lugar. A série Gemini 3, junto com lançamentos recentes como Claude Opus 4.6 e Sonnet 4.6 da Anthropic, representa um limiar onde os modelos se tornaram confiáveis ​​o suficiente no planejamento, raciocínio e autocorreção para que os trilhos possam começar a se soltar. A atualização Opal do próprio Google é um reconhecimento dessa mudança. A nova etapa do agente não exige que os construtores pré-definam cada caminho através de um fluxo de trabalho. Em vez disso, ele confia no modelo subjacente para avaliar o objetivo do usuário, avaliar as ferramentas disponíveis e determinar dinamicamente a sequência ideal de ações. Esse é o mesmo padrão que tornou viáveis ​​os fluxos de trabalho de agente e a chamada de ferramentas de Claude Code: os modelos são bons o suficiente para decidir a próxima etapa do agente e, muitas vezes, até mesmo para se autocorrigir sem que um humano reavise manualmente cada erro. A diferença em comparação com Claude Code é que o Google agora está empacotando essa capacidade em um produto sem código para o consumidor – um forte sinal de que a tecnologia subjacente amadureceu além da fase experimental. Para equipes corporativas, a implicação é direta: se você ainda está projetando arquiteturas de agentes que exigem caminhos predefinidos para cada contingência, provavelmente você está fazendo engenharia excessiva. A nova geração de modelos suporta um padrão de design onde você define metas e restrições, fornece ferramentas e deixa o modelo lidar com o roteamento – uma mudança da programação de agentes para o gerenciamento deles. Memória entre sessões: o recurso que separa as demonstrações dos agentes de produção A segunda grande adição na atualização do Opal é a memória persistente. O Google agora permite que o Opals lembre informações entre sessões – preferências do usuário, interações anteriores, contexto acumulado – fazendo com que os agentes melhorem com o uso, em vez de começar do zero a cada vez. O Google não divulgou a implementação técnica por trás do sistema de memória do Opal. Mas o padrão em si está bem estabelecido na comunidade de construção de agentes. Ferramentas como o OpenClaw lidam com memória principalmente por meio de markdown e arquivos JSON, uma abordagem simples que funciona bem para sistemas de usuário único. As implantações corporativas enfrentam um problema mais difícil: manter a memória entre vários usuários, sessões e limites de segurança sem vazar contexto confidencial entre eles. Essa divisão de memória entre usuários únicos e multiusuários é um dos desafios mais subdiscutidos na implantação de agentes corporativos. Um assistente de codificação pessoal que lembra a estrutura do seu projeto é fundamentalmente diferente de um agente voltado para o cliente que deve manter estados de memória separados para milhares de usuários simultâneos, ao mesmo tempo em que cumpre as políticas de retenção de dados. O que a atualização do Opal sinaliza é que o Google considera a memória um recurso central da arquitetura do agente, não um complemento opcional. Para os decisores de TI que avaliam as plataformas dos agentes, isto deve informar os critérios de aquisição. Uma estrutura de agente sem uma estratégia de memória clara é uma estrutura que produzirá demonstrações impressionantes, mas terá dificuldades na produção, onde o valor de um agente aumenta em interações repetidas com os mesmos usuários e conjuntos de dados. Human-in-the-loop não é um substituto – é um padrão de design

Leia Mais »