Nos últimos anos, a startup chinesa de IA MiniMax tornou-se uma das mais interessantes no concorrido mercado global de IA, conquistando uma reputação por fornecer modelos de linguagem grande (LLMs) de nível de fronteira com licenças de código aberto e, antes disso, modelos de geração de vídeo de IA de alta qualidade (Hailuo).
O lançamento do MiniMax M2.7 hoje – um novo LLM proprietário projetado para executar bem os agentes de IA e como back-end para equipamentos e ferramentas de terceiros como Claude Code, Kilo Code e OpenClaw – marca ainda um novo marco: em vez de confiar apenas no ajuste fino liderado por humanos, o MiniMax aproveitou o M2.7 para construir, monitorar e otimizar seus próprios equipamentos de aprendizagem por reforço.
Este movimento em direcção ao auto-aperfeiçoamento recursivo assinala uma mudança na indústria: um futuro onde os modelos que utilizamos são tanto os arquitectos do seu progresso como os produtos da investigação humana. O modelo é classificado como um modelo de texto apenas de raciocínio que fornece inteligência comparável a outros sistemas líderes, ao mesmo tempo que mantém uma eficiência de custos significativamente maior.
No entanto, com o M2.7 sendo proprietário por enquanto, é um sinal mais uma vez de que as startups chinesas de IA – durante grande parte do ano passado, os porta-estandartes no mundo da fronteira da IA de código aberto, tornando-as atraentes para empresas em todo o mundo devido aos baixos (ou nenhum) custo e personalização – estão mudando de estratégia e buscando modelos de fronteira mais proprietários, como líderes dos EUA como OpenAI, Google e Anthropic vêm fazendo há anos.
A MiniMax se torna a segunda startup chinesa a lançar um LLM proprietário de ponta nos últimos meses, após z.ai com seu GLM-5 Turbo, e rumores de que a equipe Qwen do Alibaba também está mudando para o desenvolvimento proprietário após a saída da liderança sênior e de outros pesquisadores.
Conquista técnica: o ciclo de autoevolução
A característica definidora do MiniMax M2.7 é o seu papel na sua própria criação. De acordo com a documentação da empresa, versões anteriores do modelo foram usadas para construir um equipamento de agente de pesquisa capaz de gerenciar pipelines de dados, ambientes de treinamento e infraestrutura de avaliação.
Ao acionar de forma autônoma a leitura de log, depuração e análise de métricas, M2.7 administrou entre 30% e 50% de seu próprio fluxo de trabalho de desenvolvimento.
Isto não é apenas uma automação de tarefas mecânicas; o modelo otimizou seu próprio desempenho de programação analisando trajetórias de falha e planejando modificações de código em loops iterativos de 100 rodadas ou mais.
"Treinamos intencionalmente o modelo para ser melhor no planejamento e no esclarecimento de requisitos com o usuário," explicou Skyler Miao, chefe de engenharia da MiniMax, na rede social X. "O próximo passo é um simulador de usuário mais complexo para levar isso ainda mais longe."
Essa capacidade se estende a ambientes complexos por meio do MLE Bench Lite, uma série de competições de aprendizado de máquina projetadas para testar habilidades de pesquisa autônoma.
Nessas provas, M2.7 alcançou uma taxa de medalhas de 66,6 por cento, uma nível de desempenho que se relaciona com o novo Gemini 3.1 do Google e se aproxima dos atuais benchmarks de última geração definidos por Claude Opus 4.6 da Anthropic.
O objetivo, segundo MiniMax, é uma transição para total autonomia no treinamento de modelos e arquitetura de inferência sem envolvimento humano.
Evolução do desempenho: MiniMax m2.7 vs.
Quando comparado com seu antecessor, M2.5, lançado em fevereiro de 2026, o modelo M2.7 demonstra ganhos significativos em engenharia de software de alto risco e tarefas profissionais de escritório.
Enquanto o M2.5 foi celebrado pelo domínio do código poliglota, o M2.7 foi projetado para engenharia do mundo real – tarefas que exigem raciocínio causal em sistemas de produção ativos.
As principais métricas de desempenho incluem:
-
Engenharia de software: M2.7 obteve 56,22% no benchmark SWE-Pro, igualando os níveis mais altos de concorrentes globais como GPT-5.3-Codex.
-
Entrega profissional de escritório: No processamento de documentos, M2.7 alcançou uma pontuação Elo de 1.495 no GDPval-AA, que a empresa afirma ser a mais alta entre os modelos acessíveis de código aberto.
-
Redução de alucinações: O modelo pontua mais um no Índice AA-Omniscience, um salto enorme em relação à pontuação negativa de 40 obtida por M2.5.
-
Taxa de alucinação: M2.7 atinge uma taxa de alucinação de 34 por cento, que é inferior às taxas de 46 por cento para Claude Sonnet 4.6 e 50 por cento para Gemini 3.1 Pro Preview.
-
Compreensão do sistema: No Terminal Bench 2, o modelo obteve pontuação de 57,0%, demonstrando um profundo entendimento de lógica operacional complexa, em vez de simples geração de código.
-
Aderência à habilidade: Na avaliação MM Claw, que testa 40 habilidades complexas que excedem 2.000 tokens cada, o M2.7 manteve uma taxa de adesão de 97 por cento, uma melhoria substancial em relação à linha de base do M2.5.
-
Paridade de inteligência: As capacidades de raciocínio do modelo são consideradas equivalentes ao GLM-5, mas utiliza 20% menos tokens de saída para obter resultados semelhantes.
A evolução do modelo é ainda evidenciada pela sua pontuação de 50 no Índice de Inteligência de Análise Artificial, representando uma melhoria de 8 pontos em relação ao seu antecessor em apenas um mês, e também ocupando o 8º lugar globalmente em termos de inteligência geral em tarefas de benchmarking em vários domínios.
Nem todos os benchmarks independentes de terceiros mostram melhorias para M2.7 em relação a M2.5: No BridgeBench, um conjunto de tarefas projetadas pela BridgeMind, startup de codificação de IA agente, para testar o desempenho de um modelo para "codificação de vibração," ou transformar linguagem natural em código funcional, M2.5 ficou em 12º lugar, enquanto M2.7 ficou em 19º lugar.
Acesso, preços e integração
MiniMax M2.7 é um modelo proprietário disponível através da API MiniMax e das plataformas de criação de Agente MiniMax. Embora os pesos do modelo principal para M2.7 permaneçam fechados, a empresa continua a contribuir para o ecossistema através do projeto interativo de código aberto OpenRoom.
Para integração direta de API e por meio do provedor terceirizado OpenRouter, o MiniMax M2.7 mantém um preço líder de custo de 0,30 dólares por 1 milhão de tokens de entrada e 1,20 dólares por 1 milhão de tokens de saída, que permanece inalterado em relação ao preço do M2.5.
Para suportar diferentes escalas e modalidades de uso, MiniMax oferece um Token Plan estruturado com vários níveis de assinatura. Esses planos permitem que os usuários acessem modelos de texto, fala, vídeo, imagem e música sob uma única cota unificada.
Para impulsionar ainda mais a adoção, a MiniMax lançou um programa de indicação Convide e Ganhe, oferecendo um desconto de 10% para novos convidados e um voucher de desconto de 10% para quem fez o convite.
Preços mensais do plano de token padrão: Os níveis mensais padrão são projetados para desenvolvedores iniciantes e usuários regulares.
-
Iniciante: US$ 10 por mês para 1.500 solicitações a cada 5 horas.
-
Mais: US$ 20 por mês para 4.500 solicitações a cada 5 horas.
-
Máx.: US$ 50 por mês para 15.000 solicitações a cada 5 horas.
Preços mensais do plano de token de alta velocidade: Para cargas de trabalho em escala de produção que exigem a variante M2.7 de alta velocidade, os seguintes níveis estão disponíveis:
-
Plus-Alta velocidade: US$ 40 por mês para 4.500 solicitações a cada 5 horas.
-
Velocidade máxima: $80 por mês para 15.000 solicitações a cada 5 horas.
-
Velocidade ultra-alta: US$ 150 por mês para 30.000 solicitações a cada 5 horas.
Preços do plano anual de token: As assinaturas anuais oferecem descontos significativos para compromissos de longo prazo:
-
Iniciante padrão: $ 100 por ano (economiza 20 dólares).
-
Padrão Plus: $ 200 por ano (economiza 40 dólares).
-
Padrão máximo: $ 500 por ano (economiza 100 dólares).
-
Alta velocidade mais: $ 400 por ano (economiza 80 dólares).
-
Alta velocidade máxima: $ 800 por ano (economiza 160 dólares).
-
Ultra de alta velocidade: $ 1.500 por ano (economiza 300 dólares).
Uma solicitação nesses planos equivale aproximadamente a uma chamada para o MiniMax M2.7, embora outros modelos do pacote, como vídeo ou fala em alta definição, consumam solicitações em uma taxa mais alta.
Integrações de ferramentas oficiais
Para garantir uma adoção perfeita, o MiniMax forneceu documentação oficial para integração do M2.7 em mais de 11 principais ferramentas de desenvolvedor e equipamentos de agente.
Isso inclui plataformas amplamente utilizadas, como Claude Code, Cursor, Trae e Zed. Outras ferramentas oficialmente suportadas incluem OpenCode, Kilo Code, Cline, Roo Code, Droid, Grok CLI e Codex CLI.
Além disso, o modelo oferece suporte ao Model Context Protocol, permitindo o uso nativo de ferramentas como Web Search e Understanding Image para raciocínio multimodal. Os desenvolvedores que usam o Anthropic SDK podem integrar facilmente o M2.7 modificando o ANTHROPIC_BASE_URL para apontar para o endpoint MiniMax.
Ao usar o MiniMax como provedor em ferramentas como OpenClaw, os recursos de compreensão de imagem são configurados automaticamente por meio do endpoint da API VLM do modelo, sem exigir nenhuma configuração extra do usuário.
Com seu profundo banco de integrações e sua abordagem pioneira à autoevolução recursiva, o MiniMax M2.7 representa um passo significativo em direção a um futuro nativo de IA, onde os modelos estão tão envolvidos em seu próprio progresso quanto os humanos que os guiam.
Implicações estratégicas para os tomadores de decisão empresariais
Os decisores técnicos devem interpretar o lançamento do M2.7 como prova de que a IA de agente passou da prototipagem teórica para a utilidade pronta para produção.
A capacidade do modelo de reduzir o tempo de recuperação de incidentes de produção ao vivo para menos de três minutos, correlacionando autonomamente métricas de monitoramento com repositórios de código, sugere uma mudança de paradigma para equipes de SRE e DevOps.
As empresas que atualmente enfrentam pressão para adotar eficiências baseadas em IA devem decidir se estão satisfeitas com a IA como um assistente sofisticado ou se estão prontas para integrar equipes de agentes nativos capazes de entregar projetos completos de ponta a ponta.
Do ponto de vista financeiro, o M2.7 representa um avanço significativo na eficiência de custos para um raciocínio de alto nível. A análise indica que o M2.7 custa menos de um terço do custo para funcionar como o GLM-5 em níveis de inteligência equivalentes.
Por exemplo, executar um índice de inteligência padrão custa 176 dólares no M2.7, em comparação com 547 dólares para o GLM-5 e 371 dólares para o Kimi K2.5. Esta estratégia de preços agressiva coloca M2.7 na fronteira de Pareto do gráfico inteligência vs. custo, oferecendo raciocínio de nível empresarial a uma fração da taxa de mercado.
O mercado atual está saturado de modelos de alto desempenho, muitos dos quais ainda apresentam ligeiras vantagens nas pontuações de raciocínio geral. Mas a otimização específica do M2.7 para fidelidade do Office Suite em Excel, PPT e Word e seu alto desempenho no benchmark GDPval-AA tornam-no um candidato principal para organizações focadas em fluxos de trabalho de documentos profissionais e modelagem financeira.
Os tomadores de decisão devem pesar os benefícios de um modelo de fronteira de uso geral em comparação com um mecanismo especializado como o M2.7, que é construído para interagir com estruturas e conjuntos de ferramentas internos complexos.
Em última análise, o facto de ser comercializado por uma empresa chinesa (com sede em Xangai) e estar sujeito às leis desse país, além do país do utilizador, e ainda não estar disponível para utilização offline ou local, pode torná-lo uma venda difícil para empresas que operam nos EUA e no Ocidente – especialmente aquelas em indústrias altamente regulamentadas ou voltadas para o governo.
No entanto, a mudança para modelos autoevolutivos sugere que o ROI do investimento em IA estará cada vez mais ligado aos ganhos recursivos do próprio sistema.
As organizações que adotam modelos capazes de melhorar os seus próprios equipamentos podem encontrar-se numa curva de iteração mais rápida do que aquelas que dependem de refinamento estático e apenas humano. Com a integração agressiva do MiniMax na pilha moderna de desenvolvedores, a barreira para testar esses fluxos de trabalho autônomos caiu significativamente, pressionando os concorrentes para fornecer capacidades de agente nativo semelhantes.
Fonte ==> Cyberseo