Player Live
AO VIVO
11 de março de 2026
Anthropic e OpenAI acabaram de expor o ponto cego estrutural do SAST com ferramentas gratuitas

Anthropic e OpenAI acabaram de expor o ponto cego estrutural do SAST com ferramentas gratuitas

A OpenAI lançou o Codex Security em 6 de março, entrando no mercado de segurança de aplicativos que a Anthropic havia interrompido 14 dias antes com Claude Code Security. Ambos os scanners usam raciocínio LLM em vez de correspondência de padrões. Ambos provaram que as ferramentas tradicionais de testes estáticos de segurança de aplicativos (SAST) são estruturalmente cegas para classes inteiras de vulnerabilidade. A pilha de segurança corporativa está presa no meio. A Anthropic e a OpenAI lançaram de forma independente scanners de vulnerabilidade baseados em raciocínio e ambas encontraram classes de bugs que o SAST de correspondência de padrões nunca foi projetado para detectar. A pressão competitiva entre dois laboratórios com uma avaliação combinada do mercado privado superior a US$ 1,1 trilhão significa que a qualidade da detecção melhorará mais rapidamente do que qualquer fornecedor pode oferecer sozinho. Nem o Claude Code Security nem o Codex Security substituem sua pilha existente. Ambas as ferramentas alteram permanentemente a matemática das compras. No momento, ambos são gratuitos para clientes corporativos. A comparação direta e as sete ações abaixo são o que você precisa antes que o conselho de administração pergunte qual scanner você está testando e por quê. Como Anthropic e OpenAI chegaram à mesma conclusão em arquiteturas diferentes A Anthropic publicou sua pesquisa de dia zero em 5 de fevereiro junto com o lançamento do Claude Opus 4.6. A Anthropic disse que Claude Opus 4.6 encontrou mais de 500 vulnerabilidades de alta gravidade anteriormente desconhecidas em bases de código de código aberto de produção que sobreviveram a décadas de revisão de especialistas e milhões de horas de difusão. Na biblioteca CGIF, Claude descobriu um estouro de buffer de heap ao raciocinar sobre o algoritmo de compressão LZW, uma falha que a difusão guiada por cobertura não conseguia detectar mesmo com 100% de cobertura de código. A Anthropic lançou Claude Code Security como uma prévia de pesquisa limitada em 20 de fevereiro, disponível para clientes Enterprise e Team, com acesso rápido e gratuito para mantenedores de código aberto. Gabby Curtis, líder de comunicações da Anthropic, disse à VentureBeat em uma entrevista exclusiva que a Anthropic construiu o Claude Code Security para tornar as capacidades defensivas mais amplamente disponíveis. Os números da OpenAI vêm de uma arquitetura diferente e de uma superfície de digitalização mais ampla. Codex Security evoluiu do Aardvark, uma ferramenta interna alimentada por GPT-5 que entrou em beta privado em 2025. Durante o período beta do Codex Security, o agente da OpenAI examinou mais de 1,2 milhão de commits em repositórios externos, revelando o que a OpenAI disse serem 792 descobertas críticas e 10.561 descobertas de alta gravidade. OpenAI relatou vulnerabilidades em OpenSSH, GnuTLS, GOGS, Thorium, libssh, PHP e Chromium, resultando em 14 CVEs atribuídos. As taxas de falsos positivos do Codex Security caíram mais de 50% em todos os repositórios durante a versão beta, de acordo com a OpenAI. A gravidade relatada em excesso caiu mais de 90%. Os pesquisadores do Checkmarx Zero demonstraram que vulnerabilidades moderadamente complicadas às vezes escapavam da detecção do Claude Code Security. Os desenvolvedores podem enganar o agente para que ignore o código vulnerável. Em uma varredura completa da base de código de nível de produção, Checkmarx Zero descobriu que Claude identificou oito vulnerabilidades, mas apenas duas eram verdadeiros positivos. Se o ofuscamento moderadamente complexo derrotar o scanner, o teto de detecção será menor do que os números do título sugerem. Nem a Anthropic nem a OpenAI submeteram reivindicações de detecção a uma auditoria independente de terceiros. Os líderes de segurança devem tratar os números comunicados como indicativos e não auditados. Merritt Baer, ​​CSO da Enkrypt AI e ex-vice-CISO da AWS, disse à VentureBeat que a corrida competitiva de scanners comprime a janela para todos. Baer aconselhou as equipes de segurança a priorizar os patches com base na capacidade de exploração em seu contexto de tempo de execução, em vez de apenas nas pontuações CVSS, encurtar a janela entre a descoberta, a triagem e o patch e manter a visibilidade da lista de materiais do software para que saibam instantaneamente onde um componente vulnerável é executado. Métodos diferentes, quase nenhuma sobreposição nas bases de código digitalizadas, mas a mesma conclusão. O SAST de correspondência de padrões tem um limite, e o raciocínio LLM estende a detecção além dele. Quando dois laboratórios concorrentes distribuem essa capacidade ao mesmo tempo, a matemática da dupla utilização torna-se desconfortável. Qualquer instituição financeira ou fintech que execute uma base de código comercial deve presumir que, se Claude Code Security e Codex Security puderem encontrar esses bugs, adversários com acesso à API também poderão encontrá-los. Baer foi direto: vulnerabilidades de código aberto reveladas por modelos de raciocínio deveriam ser tratadas mais próximas das descobertas de classe de dia zero, e não de itens de backlog. A janela entre a descoberta e a exploração acabou de ser reduzida, e a maioria dos programas de gerenciamento de vulnerabilidades ainda faz triagem apenas no CVSS. O que as respostas dos fornecedores provam Snyk, a plataforma de segurança para desenvolvedores usada por equipes de engenharia para encontrar e corrigir vulnerabilidades em código e dependências de código aberto, reconheceu o avanço técnico, mas argumentou que encontrar vulnerabilidades nunca foi a parte difícil. Corrigindo-os em escala, em centenas de repositórios, sem quebrar nada. Esse é o gargalo. Snyk apontou para uma pesquisa que mostra que o código gerado por IA tem 2,74 vezes mais probabilidade de introduzir vulnerabilidades de segurança em comparação com o código escrito por humanos, de acordo com o Relatório de Segurança de Código GenAI de 2025 da Veracode. Os mesmos modelos que encontram centenas de dias zero também introduzem novas classes de vulnerabilidade ao escrever código. O CTO da Cycode, Ronen Slavin, escreveu que Claude Code Security representa um avanço técnico genuíno em análise estática, mas que os modelos de IA são probabilísticos por natureza. Slavin argumentou que as equipes de segurança precisam de resultados consistentes, reproduzíveis e com nível de auditoria, e que um recurso de varredura incorporado em

Leia Mais »