A DeepSeek apresentou na segunda-feira (1/12) o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale. São modelos de IA que combinam raciocínio complexo com capacidade de usar ferramentas de forma autônoma.
A empresa de Hangzhou afirma que o DeepSeek-V3.2 iguala o desempenho do GPT-5 em múltiplos testes de raciocínio. O modelo Speciale atinge o nível do Gemini-3 Pro e conquistou medalhas de ouro em olimpíadas internacionais de matemática e informática.
O DeepSeek-V3.2 integra pela primeira vez o “pensamento” diretamente no uso de ferramentas. Ele pode raciocinar internamente enquanto executa buscas na web, usa uma calculadora ou escreve código.
O sistema funciona em dois modos:
1. Com raciocínio visível (semelhante ao raciocínio visto no ChatGPT e em outros).
2. Ou sem qualquer raciocínio.
A cadeia de pensamento persiste entre chamadas de ferramentas e só é reiniciada quando o usuário envia uma nova mensagem.
Como eles conseguiram isso? Os pesquisadores desenvolveram o DeepSeek Sparse Attention (DSA), uma arquitetura que reduz muito o custo computacional de processar contextos longos. O modelo mantém 671 bilhões de parâmetros totais, mas ativa apenas 37 bilhões por token.
Em números
O DSA corta o custo de inferência em contextos longos em aproximadamente 50% em comparação com a arquitetura densa anterior. O sistema processa janelas de contexto de 128.000 tokens em produção.
O treinamento por reforço consumiu mais de 10% do poder de computação total do pré-treinamento. A equipe gerou mais de 1.800 ambientes sintéticos e 85.000 tarefas para treinar capacidades de agente.
O DeepSeek-V3.2-Speciale conquistou medalha de ouro na Olimpíada Internacional de Matemática de 2025, na Olimpíada Internacional de Informática de 2025, nas finais mundiais do ICPC 2025 e na Olimpíada Matemática da China de 2025.
Ambos os modelos já estão disponíveis.
- O V3.2 funciona em aplicativo, web e API.
- O V3.2-Speciale só por API, pelo menos por enquanto.
Nas entrelinhas
A DeepSeek publicou os pesos completos e o relatório técnico do processo de treinamento. Essa transparência contrasta com o que as grandes empresas de tecnologia dos Estados Unidos costumam fazer. Mesmo aquelas que oferecem modelos de código aberto, como o Llama, o fazem com um asterisco.
A startup chinesa quer demonstrar que sistemas de código aberto podem competir com os modelos proprietários mais avançados — e faz isso enquanto continua reduzindo custos.
Mas vale dizer que os benchmarks públicos nem sempre refletem o desempenho em tarefas do mundo real. As comparações diretas com o GPT-5 ou o Gemini-3 Pro dependem de métricas específicas que podem não capturar todas as dimensões relevantes.
Além disso, a integração de ferramentas no modo raciocinador ainda precisa ser testada em casos de uso complexos do mundo real. O custo reduzido não é tão importante se a qualidade das respostas não se sustentar.
Imagem destacada | Solen Feyissa
Este texto foi traduzido/adaptado do site Xataka Espanha.
Ver 0 Comentários