Houve um dia em que a DeepSeek surpreendeu meio mundo ao demonstrar que era possível chegar longe com menos. Hoje, a empresa retorna com o V3.1 e uma mensagem que não passa despercebida: o modelo foi preparado para a próxima leva de chips chineses. Não estamos falando de uma reviravolta automática no mercado, mas sim de uma aposta concreta que aponta para uma direção incômoda para NVIDIA e companhia. Se essa sintonia técnica com o hardware chinês se traduzir em desempenho, a conversa sobre quem alimenta a IA na China vai soar muito diferente.
De acordo com a nota da própria companhia, o V3.1 inaugura uma inferência híbrida ao mais puro estilo GPT-5: um mesmo sistema com duas rotas, Think (raciocínio profundo) e Non-Think (resposta rápida), comutáveis a partir de seu site e aplicativo. A formulação é clara: “Hybrid inference: Think & Non-Think, um modelo, dois modelos”. A empresa destaca ainda que a versão Think “alcança respostas em menos tempo” que sua predecessora. Ou seja, não apenas mudam os pesos, também mudam os modos de inferência que já estão em serviço.
A frase que resume tudo: um FP8 “pensado para os chips nacionais”
Em um comentário fixado em sua última publicação no WeChat, a DeepSeek escreve: “UE8M0 FP8 é para a próxima geração de chips nacionais”. Ou seja, a companhia sugere que ajustou o formato de dados, aparentemente um FP8 que etiqueta como UE8M0, para a próxima leva de processadores chineses. Bloomberg e Reuters registram essa mensagem e a sintetizam: o V3.1 está “personalizado para funcionar com chips de IA de próxima geração chineses”. Em outras palavras, otimização voltada ao ecossistema local.
FP8 é um formato de 8 bits que pesa a metade de FP16/BF16. Com suporte nativo, permite mais desempenho por ciclo e menos uso de memória, desde que o escalonamento esteja bem calibrado. No model card oficial do Hugging Face, lê-se que o DeepSeek-V3.1 “foi treinado usando o formato de escala UE8M0 FP8”, o que indica que não se trata apenas de um empacotamento de pesos, mas que o treinamento e a execução foram adaptados expressamente a essa precisão. A parte delicada, e convém ter cautela, é que tudo aponta para uma leva de chips que será lançada no futuro e para a possibilidade de que consigam tirar proveito desse esquema de forma nativa.
Então, isso é uma má notícia para a NVIDIA? Os dados do exercício fiscal encerrado em 26 de janeiro indicam que a China representou aproximadamente 13% da receita da companhia liderada por Jensen Huang. Se parte do processamento de IA na China migrar do clássico duo GPU NVIDIA + ecossistema CUDA para soluções domésticas que funcionem com o formato UE8M0 FP8 e apresentem bons resultados (presumivelmente chips Ascend da Huawei), a demanda por soluções ocidentais pode se enfraquecer com o passar do tempo.
Tudo isso acontece no tabuleiro dos controles de exportação dos EUA: restrições que pretendiam frear o acesso da China a chips avançados e que também aceleraram sua aposta na autossuficiência. Este ano, a administração Trump reabilitou com condições a exportação do H20, um chip recortado para a China. Desde então, o estado do H20 tem sido oscilante: entre permissões, pressões regulatórias chinesas e planos da NVIDIA para apresentar alternativas baseadas no Blackwell. A mensagem de fundo é que o cenário é político e mutável, e qualquer via que permita à China depender menos dessas janelas ganha valor estratégico.
É preciso lembrar outro dado que ajuda a calibrar expectativas. Segundo o Financial Times, a DeepSeek tentou treinar seu futuro modelo R2 com chips Huawei Ascend a pedido de instâncias oficiais e se deparou com problemas técnicos persistentes. Acabou voltando à NVIDIA para o treinamento, enquanto seguia trabalhando na compatibilidade para inferência. Esse episódio não invalida a estratégia atual, mas estabelece o nível: migrar totalmente seus processos não é simples e exige, entre outras coisas, meses de engenharia. O V3.1, portanto, deve ser lido como uma iteração.

E aqui temos outro dado interessante. A MathArena, uma plataforma vinculada à Escola Politécnica Federal de Zurique que avalia modelos em competições matemáticas reais e recentes, coloca o GPT-5 como líder, com 90% em testes de resposta final, e o DeepSeek-v3.1 (Think) um pouco atrás, embora entre os melhores modelos do momento. Isso ajuda a situar o contexto: o V3.1 compete no topo. No momento da publicação deste artigo, o modelo está disponível por meio da API. Os pesos e o código encontram-se no Hugging Face.
Imagens | Xataka com Gemini 2.5 | Capturas de tela MathArena e DeepSeek
Este texto foi traduzido/adaptado do site Xataka Espanha.
Ver 0 Comentários