A OpenAI revelou um O3 Pro poderoso, porém caríssimo; no mesmo dia, também reduziu o preço do O3: a guerra de preços começou

A OpenAI cortou o preço do O3 em 80%. E, como um presente para a indústria, lançou uma guerra de preços que destruirá todas as margens.

ChatGPT começa guerra de preços com seu novo O3 | Imagem: Mariia Shalabaieva no Unsplash
Sem comentários Facebook Twitter Flipboard E-mail
igor-gomes

Igor Gomes

Subeditor

Subeditor do Xataka Brasil. Jornalista há 15 anos, já trabalhou em jornais diários, revistas semanais e podcasts. Quando criança, desmontava os brinquedos para tentar entender como eles funcionavam e nunca conseguia montar de volta.

A OpenAI fez sua jogada: no mesmo dia em que revelou o O3 Pro, cortou o preço do O3 em 80% . Isso pode ser apenas segmentação, mas também é possivelmente uma prévia da guerra de preços que está prestes a começar quando os rivais já estiverem próximos de seu desempenho e sua eficiência interna permitir que tokens sejam vendidos por centavos.

A nova etapa é a seguinte (preços por milhão de tokens ):


Entrada

Saída

Open ai o3

US$ 2 (anteriormente $ 10)

US$ 8 (anteriormente US$ 40)

open ai o3 pro

US$ 20

US$ 80

gemini 2.5 Pro

US$ 1,25

US$ 10

claude 3.7 sonnet

US$ 3

US$ 15

DEEPSEEK R.1-0528

US$ 0,55

US$ 2.19

Essa redução de preços ocorre porque a qualidade já está convergindo na prática : quase todos os modelos "raciocinam" comparativamente em tarefas comuns, e as melhorias de eficiência em hardware e inferência (no lado do OpenAI e no resto) reduzem o custo marginal de servir cada token .

O resultado é simples: o preço se torna a principal alavanca, e a segmentação atua como uma barragem — daí a criação do O3 Pro, projetado para clientes dispostos a pagar muito por latências baixas, contextos enormes ou auditorias formais.

Para desenvolvedores, este é um terreno fértil. A US$ 2 por milhão, a IA deixou de ser um luxo e se assemelha a uma CDN : pagamento por uso, sem contrato permanente.

Se Gemini ou DeepSeek oferecerem uma melhor relação custo-benefício amanhã , a mudança será razoavelmente simples em termos de infraestrutura e prompts . O efeito de bloqueio se desloca para a camada que envolve o modelo (ferramentas, dados, experiência do usuário), não para o modelo em si.

  • Já prevíamos isso no início do ano com o terremoto DeepSeek .
  • Estamos caminhando em direção a um futuro onde o LLM é uma mercadoria, e o que o diferencia, além do preço, é o que o cerca: funções, produto.

Na outra ponta do espectro de custos, a Apple integrou seus modelos fundamentais diretamente em seus sistemas operacionais . Qualquer aplicativo pode invocá-los localmente, gratuitamente, sem contadores de tokens ou contas mensais: a IA se torna tão invisível quanto um GPS ou uma câmera . É apenas mais um recurso.

A mudança lembra o surgimento do WordPress no início dos anos 2000. Na época, publicar online exigia muito conhecimento ou muito dinheiro para pagar alguém que o tivesse. O WordPress quebrou essa barreira e democratizou a publicação. Vinte anos depois, concedemos a Lenda Xataka ao seu criador justamente por esse motivo.

E agora? Possivelmente um ajuste para baixo nas margens dos modelos básicos e uma migração do negócio para serviços de nível superior: observabilidade, gerenciamento de ajuste fino , hospedagem privada de dados, agentes verticais... Exatamente o que aconteceu com a nuvem quando o preço por gigabyte despencou e o valor foi transferido para as camadas de gerenciamento.

A "magia" da IA ​​está desaparecendo, mas sua utilidade — agora muito mais acessível — abre as portas para um mercado muito mais amplo. Exatamente o que a OpenAI precisa .

Inicio