Serviços de IA queriam que pagássemos para acessar suas versões avançadas, mas novo plano é nos fazer pagar por usá-la demais

Usuários pesados ​​de IA estão percebendo que usá-la incansavelmente vai ficar cada vez mais caro

Imagem | Solen Feyissa
Sem comentários Facebook Twitter Flipboard E-mail
pedro-mota

PH Mota

Redator

Jornalista há 15 anos, teve uma infância analógica cada vez mais conquistada pelos charmes das novas tecnologias. Do videocassete ao streaming, do Windows 3.1 aos celulares cada vez menores.

Já faz algum tempo que é comum jogarmos videogames ou usarmos aplicativos de software livres. Claro, não costumam ser as versões completas, mas sim as básicas e limitadas. Portanto, você pode continuar a usá-los gratuitamente se não precisar de mais, mas se acontecer o contrário, o problema começa, porque você precisa mexer na carteira.

É exatamente isso que estamos vivenciando com o mundo da IA. Quase todos os modelos nos permitiam usá-los gratuitamente. Foi o que aconteceu com o ChatGPT, Gemini, Copilot e Claude.

Com o tempo, as empresas responsáveis ​​pelo desenvolvimento desses modelos lançaram versões mais potentes e de maior qualidade, mas se você quisesse usá-los, teria que pagar. ChatGPT Plus, Claude Pro ou Copilot Pro deram o tom com assinaturas de 20 dólares (R$ 112) por mês que davam acesso a usos mais intensivos e também a modelos e recursos mais avançados.

Mas isso não foi suficiente, e a OpenAI anunciou o lançamento do ChatGPT Pro em dezembro de 2024. Era uma alternativa ainda mais avançada e perfeita para usuários frequentes, mas seu preço também representava uma barreira significativa, pois nem todos estão dispostos a pagar dez vezes o valor do Plus, por mês, para usar modelos de IA.

Esse plano pode parecer caro se você não o aproveitar, mas o que acontece se você aproveitar ao máximo? Ele pode se tornar uma ajuda que permite fazer mais em menos tempo e, se for o caso, pode até parecer uma pechincha: depende de cada situação, e a OpenAI sabe disso. Tanto que a empresa sugere que no futuro haverá chatbots hiperespecializados que podem ampliar em até 100 vezes o custo. O número parece absurdo, mas se você for capaz de gerar mais valor do que isso e aproveita esses modelos intensivamente, eles podem realmente compensar.

É aí que as empresas perceberam que podem cobrar não apenas pela qualidade, mas também pela quantidade.

Original

É isso que a Anthropic propõe, com o recente anúncio de seu novo plano Claude Max. Por 100 dólares (R$ 560) por mês, que permite limites de uso cinco vezes maiores que os do Claude Pro (o ChatGPT Plus da Anthropic, que custa 17 dólares por mês).

O que isso significa? Basicamente, mesmo que você seja um usuário intensivo, será muito difícil que a temida mensagem do tipo "você esgotou o limite de solicitações, aguarde algumas horas para usá-lo novamente" apareça. Não é que o modelo seja melhor ou mais rápido – pelo menos, por enquanto. Você pode simplesmente usá-lo muito mais.

E se você quiser mais, tudo bem: existe a API.

A estratégia da Anthropic, assim como a da OpenAI antes, é lógica e razoável: se você quiser "abusar" das vantagens da IA ​​e fazer uso intensivo de sua capacidade, terá que pagar a mais.

Original

Há mais uma alternativa nessas áreas: pagar pelo uso da API: aqui, podemos consumir o quanto quisermos, e o pagamento por uso é medido em custo por milhão de tokens de entrada ou saída. Se o modelo for mais moderno e eficiente, você paga mais. Se for mais antigo e modesto, menos.

No Anthropic, por exemplo, o Claude 3.7 Sonnet (seu melhor modelo atualmente) custa US$ 3 por milhão de tokens de entrada e US$ 15 por milhão de tokens de saída (respectivamente R$ 16,8 mi e R$ 84 mi) . A versão anterior, Claude 3.5 Haiku, custa US$ 0,8 por milhão de tokens de entrada e US$ 4 por milhão de tokens de saída (R$ 4,48 mi e R$ 22 mi).

Com o modelo de pagamento por uso proposto pelas APIs, que é muito voltado para desenvolvedores e empresas – e especialmente útil para programadores – também existem grandes diferenças entre alguns provedores e outros. O modelo o1-pro do ChatGPT Pro é, por exemplo, 140 vezes mais caro em termos de custo de API do que o o3-mini disponível no ChatGPT.

O que está claro é que as empresas já delinearam como vamos pagar pelo uso da inteligência artificial. Não pagaremos apenas por aquela que for mais avançada; se quisermos usá-la muito, também teremos que pagar mais.

No momento, uma coisa é clara: usar IA pode ser gratuito, mas se você quiser usá-la muito e bem, prepare seu bolso.

Imagem | Solen Feyissa

Inicio