Player Live
AO VIVO
19 de março de 2026
O novo modelo de IA proprietário do MiniMax M2.7 é “autoevolutivo” e pode realizar de 30 a 50% do fluxo de trabalho de pesquisa de aprendizagem por reforço

O novo modelo de IA proprietário do MiniMax M2.7 é “autoevolutivo” e pode realizar de 30 a 50% do fluxo de trabalho de pesquisa de aprendizagem por reforço

Nos últimos anos, a startup chinesa de IA MiniMax tornou-se uma das mais interessantes no concorrido mercado global de IA, conquistando uma reputação por fornecer modelos de linguagem grande (LLMs) de nível de fronteira com licenças de código aberto e, antes disso, modelos de geração de vídeo de IA de alta qualidade (Hailuo). O lançamento do MiniMax M2.7 hoje – um novo LLM proprietário projetado para executar bem os agentes de IA e como back-end para equipamentos e ferramentas de terceiros como Claude Code, Kilo Code e OpenClaw – marca ainda um novo marco: em vez de confiar apenas no ajuste fino liderado por humanos, o MiniMax aproveitou o M2.7 para construir, monitorar e otimizar seus próprios equipamentos de aprendizagem por reforço. Este movimento em direcção ao auto-aperfeiçoamento recursivo assinala uma mudança na indústria: um futuro onde os modelos que utilizamos são tanto os arquitectos do seu progresso como os produtos da investigação humana. O modelo é classificado como um modelo de texto apenas de raciocínio que fornece inteligência comparável a outros sistemas líderes, ao mesmo tempo que mantém uma eficiência de custos significativamente maior. No entanto, com o M2.7 sendo proprietário por enquanto, é um sinal mais uma vez de que as startups chinesas de IA – durante grande parte do ano passado, os porta-estandartes no mundo da fronteira da IA ​​de código aberto, tornando-as atraentes para empresas em todo o mundo devido aos baixos (ou nenhum) custo e personalização – estão mudando de estratégia e buscando modelos de fronteira mais proprietários, como líderes dos EUA como OpenAI, Google e Anthropic vêm fazendo há anos. A MiniMax se torna a segunda startup chinesa a lançar um LLM proprietário de ponta nos últimos meses, após z.ai com seu GLM-5 Turbo, e rumores de que a equipe Qwen do Alibaba também está mudando para o desenvolvimento proprietário após a saída da liderança sênior e de outros pesquisadores. Conquista técnica: o ciclo de autoevolução A característica definidora do MiniMax M2.7 é o seu papel na sua própria criação. De acordo com a documentação da empresa, versões anteriores do modelo foram usadas para construir um equipamento de agente de pesquisa capaz de gerenciar pipelines de dados, ambientes de treinamento e infraestrutura de avaliação. Ao acionar de forma autônoma a leitura de log, depuração e análise de métricas, M2.7 administrou entre 30% e 50% de seu próprio fluxo de trabalho de desenvolvimento. Isto não é apenas uma automação de tarefas mecânicas; o modelo otimizou seu próprio desempenho de programação analisando trajetórias de falha e planejando modificações de código em loops iterativos de 100 rodadas ou mais. "Treinamos intencionalmente o modelo para ser melhor no planejamento e no esclarecimento de requisitos com o usuário," explicou Skyler Miao, chefe de engenharia da MiniMax, na rede social X. "O próximo passo é um simulador de usuário mais complexo para levar isso ainda mais longe." Essa capacidade se estende a ambientes complexos por meio do MLE Bench Lite, uma série de competições de aprendizado de máquina projetadas para testar habilidades de pesquisa autônoma. Nessas provas, M2.7 alcançou uma taxa de medalhas de 66,6 por cento, uma nível de desempenho que se relaciona com o novo Gemini 3.1 do Google e se aproxima dos atuais benchmarks de última geração definidos por Claude Opus 4.6 da Anthropic. O objetivo, segundo MiniMax, é uma transição para total autonomia no treinamento de modelos e arquitetura de inferência sem envolvimento humano. Evolução do desempenho: MiniMax m2.7 vs. Quando comparado com seu antecessor, M2.5, lançado em fevereiro de 2026, o modelo M2.7 demonstra ganhos significativos em engenharia de software de alto risco e tarefas profissionais de escritório. Enquanto o M2.5 foi celebrado pelo domínio do código poliglota, o M2.7 foi projetado para engenharia do mundo real – tarefas que exigem raciocínio causal em sistemas de produção ativos. As principais métricas de desempenho incluem: Engenharia de software: M2.7 obteve 56,22% no benchmark SWE-Pro, igualando os níveis mais altos de concorrentes globais como GPT-5.3-Codex. Entrega profissional de escritório: No processamento de documentos, M2.7 alcançou uma pontuação Elo de 1.495 no GDPval-AA, que a empresa afirma ser a mais alta entre os modelos acessíveis de código aberto. Redução de alucinações: O modelo pontua mais um no Índice AA-Omniscience, um salto enorme em relação à pontuação negativa de 40 obtida por M2.5. Taxa de alucinação: M2.7 atinge uma taxa de alucinação de 34 por cento, que é inferior às taxas de 46 por cento para Claude Sonnet 4.6 e 50 por cento para Gemini 3.1 Pro Preview. Compreensão do sistema: No Terminal Bench 2, o modelo obteve pontuação de 57,0%, demonstrando um profundo entendimento de lógica operacional complexa, em vez de simples geração de código. Aderência à habilidade: Na avaliação MM Claw, que testa 40 habilidades complexas que excedem 2.000 tokens cada, o M2.7 manteve uma taxa de adesão de 97 por cento, uma melhoria substancial em relação à linha de base do M2.5. Paridade de inteligência: As capacidades de raciocínio do modelo são consideradas equivalentes ao GLM-5, mas utiliza 20% menos tokens de saída para obter resultados semelhantes. A evolução do modelo é ainda evidenciada pela sua pontuação de 50 no Índice de Inteligência de Análise Artificial, representando uma melhoria de 8 pontos em relação ao seu antecessor em apenas um mês, e também ocupando o 8º lugar globalmente em termos de inteligência geral em tarefas de benchmarking em vários domínios. Nem todos os benchmarks independentes de terceiros mostram melhorias para M2.7 em relação a M2.5: No BridgeBench, um conjunto de tarefas projetadas pela BridgeMind, startup de codificação de IA agente, para testar o desempenho de um modelo para "codificação de vibração," ou transformar linguagem natural em código funcional, M2.5 ficou em 12º lugar, enquanto M2.7 ficou em 19º lugar. Acesso, preços e integração MiniMax M2.7 é um modelo proprietário disponível através da API MiniMax e das plataformas de criação de Agente MiniMax. Embora os pesos do modelo principal para M2.7 permaneçam fechados, a empresa continua a contribuir para o ecossistema através do projeto interativo de

Leia Mais »