Gratuito e com raciocínio avançado: o novo modelo do DeepSeek supera o GPT-5

A startup chinesa apresentou dois modelos que igualam o GPT-5 e o Gemini-3 Pro, com capacidade de raciocínio avançado e uso autônomo de ferramentas

DeepSeek / Imagem: Solen Feyissa
Sem comentários Facebook Twitter Flipboard E-mail
victor-bianchin

Victor Bianchin

Redator
victor-bianchin

Victor Bianchin

Redator

Victor Bianchin é jornalista.

1426 publicaciones de Victor Bianchin

A DeepSeek apresentou na segunda-feira (1/12) o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale. São modelos de IA que combinam raciocínio complexo com capacidade de usar ferramentas de forma autônoma.

A empresa de Hangzhou afirma que o DeepSeek-V3.2 iguala o desempenho do GPT-5 em múltiplos testes de raciocínio. O modelo Speciale atinge o nível do Gemini-3 Pro e conquistou medalhas de ouro em olimpíadas internacionais de matemática e informática.

O DeepSeek-V3.2 integra pela primeira vez o “pensamento” diretamente no uso de ferramentas. Ele pode raciocinar internamente enquanto executa buscas na web, usa uma calculadora ou escreve código.

O sistema funciona em dois modos:

1. Com raciocínio visível (semelhante ao raciocínio visto no ChatGPT e em outros).

2. Ou sem qualquer raciocínio.

A cadeia de pensamento persiste entre chamadas de ferramentas e só é reiniciada quando o usuário envia uma nova mensagem.

Como eles conseguiram isso? Os pesquisadores desenvolveram o DeepSeek Sparse Attention (DSA), uma arquitetura que reduz muito o custo computacional de processar contextos longos. O modelo mantém 671 bilhões de parâmetros totais, mas ativa apenas 37 bilhões por token.

Em números

O DSA corta o custo de inferência em contextos longos em aproximadamente 50% em comparação com a arquitetura densa anterior. O sistema processa janelas de contexto de 128.000 tokens em produção.

O treinamento por reforço consumiu mais de 10% do poder de computação total do pré-treinamento. A equipe gerou mais de 1.800 ambientes sintéticos e 85.000 tarefas para treinar capacidades de agente.

O DeepSeek-V3.2-Speciale conquistou medalha de ouro na Olimpíada Internacional de Matemática de 2025, na Olimpíada Internacional de Informática de 2025, nas finais mundiais do ICPC 2025 e na Olimpíada Matemática da China de 2025.

Ambos os modelos já estão disponíveis.

Nas entrelinhas

A DeepSeek publicou os pesos completos e o relatório técnico do processo de treinamento. Essa transparência contrasta com o que as grandes empresas de tecnologia dos Estados Unidos costumam fazer. Mesmo aquelas que oferecem modelos de código aberto, como o Llama, o fazem com um asterisco.

A startup chinesa quer demonstrar que sistemas de código aberto podem competir com os modelos proprietários mais avançados — e faz isso enquanto continua reduzindo custos.

Mas vale dizer que os benchmarks públicos nem sempre refletem o desempenho em tarefas do mundo real. As comparações diretas com o GPT-5 ou o Gemini-3 Pro dependem de métricas específicas que podem não capturar todas as dimensões relevantes.

Além disso, a integração de ferramentas no modo raciocinador ainda precisa ser testada em casos de uso complexos do mundo real. O custo reduzido não é tão importante se a qualidade das respostas não se sustentar.

Imagem destacada | Solen Feyissa

Este texto foi traduzido/adaptado do site Xataka Espanha.


Inicio