Nvidia avança e acelera em até 10 vezes modelos de IA da chinesa Moonshoot
Desempenho reforça liderança da Nvidia na corrida por infraestrutura de inteligência artificial
12/4/2025


A Nvidia divulgou novos dados nesta quarta-feira mostrando que seu mais recente servidor de inteligência artificial é capaz de acelerar em até 10 vezes a performance de modelos avançados — incluindo dois dos mais populares modelos da China, entre eles o Kimi K2 Thinking, da Moonshoot AI. O anúncio reforça a estratégia da empresa de manter sua liderança em um momento em que o setor desloca o foco do treinamento de modelos para a etapa de inferência, que é quando milhões de usuários utilizam esses sistemas no dia a dia.
Mudança de foco no mercado de IA aumenta a competição
Nos últimos anos, a Nvidia dominou o mercado de treinamento de modelos, etapa extremamente intensiva em poder computacional. No entanto, a demanda global mudou rapidamente para a fase de uso dos modelos, onde empresas como AMD e Cerebras têm buscado ganhar espaço.
Para demonstrar força também nesse segmento, a Nvidia concentrou seus testes nos chamados modelos de “mistura de especialistas” (Mixture of Experts – MoE), uma técnica que divide tarefas complexas entre diferentes módulos internos para melhorar eficiência e desempenho. Essa arquitetura ganhou enorme visibilidade em 2025 depois que a chinesa DeepSeek lançou um modelo de alto desempenho baseado em MoE que utilizava menos chips Nvidia para ser treinado.
Desde então, grandes produtoras de IA — OpenAI, Mistral e Moonshoot AI — adotaram a abordagem, reforçando sua tendência global.
Servidores mais potentes impulsionam desempenho
O novo servidor apresentado pela Nvidia reúne 72 chips de última geração interligados por conexões de alta velocidade. Segundo a empresa, essa densidade e velocidade interna foram determinantes para alcançar ganhos de até dez vezes no desempenho:
Modelo Kimi K2 Thinking (Moonshoot AI): +10x de performance
Modelos da DeepSeek: ganhos equivalentes
A Nvidia atribui o salto ao volume de chips por máquina e ao sistema de interconexão, áreas nas quais ainda mantém vantagem competitiva sobre rivais.
Pressão competitiva aumenta
A AMD já trabalha em um servidor com múltiplos chips de alta potência, previsto para chegar ao mercado no próximo ano. A disputa pela liderança no mercado de inferência deve se intensificar, já que essa fase representa a maior parte do uso real dos modelos por empresas e consumidores.
Contato
Fale conosco para dúvidas ou sugestões
contato@girodemercado.com
© 2025. All rights reserved.
