Já faz algum tempo que é comum jogarmos videogames ou usarmos aplicativos de software livres. Claro, não costumam ser as versões completas, mas sim as básicas e limitadas. Portanto, você pode continuar a usá-los gratuitamente se não precisar de mais, mas se acontecer o contrário, o problema começa, porque você precisa mexer na carteira.
É exatamente isso que estamos vivenciando com o mundo da IA. Quase todos os modelos nos permitiam usá-los gratuitamente. Foi o que aconteceu com o ChatGPT, Gemini, Copilot e Claude.
Com o tempo, as empresas responsáveis pelo desenvolvimento desses modelos lançaram versões mais potentes e de maior qualidade, mas se você quisesse usá-los, teria que pagar. ChatGPT Plus, Claude Pro ou Copilot Pro deram o tom com assinaturas de 20 dólares (R$ 112) por mês que davam acesso a usos mais intensivos e também a modelos e recursos mais avançados.
Mas isso não foi suficiente, e a OpenAI anunciou o lançamento do ChatGPT Pro em dezembro de 2024. Era uma alternativa ainda mais avançada e perfeita para usuários frequentes, mas seu preço também representava uma barreira significativa, pois nem todos estão dispostos a pagar dez vezes o valor do Plus, por mês, para usar modelos de IA.
Esse plano pode parecer caro se você não o aproveitar, mas o que acontece se você aproveitar ao máximo? Ele pode se tornar uma ajuda que permite fazer mais em menos tempo e, se for o caso, pode até parecer uma pechincha: depende de cada situação, e a OpenAI sabe disso. Tanto que a empresa sugere que no futuro haverá chatbots hiperespecializados que podem ampliar em até 100 vezes o custo. O número parece absurdo, mas se você for capaz de gerar mais valor do que isso e aproveita esses modelos intensivamente, eles podem realmente compensar.
É aí que as empresas perceberam que podem cobrar não apenas pela qualidade, mas também pela quantidade.

É isso que a Anthropic propõe, com o recente anúncio de seu novo plano Claude Max. Por 100 dólares (R$ 560) por mês, que permite limites de uso cinco vezes maiores que os do Claude Pro (o ChatGPT Plus da Anthropic, que custa 17 dólares por mês).
O que isso significa? Basicamente, mesmo que você seja um usuário intensivo, será muito difícil que a temida mensagem do tipo "você esgotou o limite de solicitações, aguarde algumas horas para usá-lo novamente" apareça. Não é que o modelo seja melhor ou mais rápido – pelo menos, por enquanto. Você pode simplesmente usá-lo muito mais.
E se você quiser mais, tudo bem: existe a API.
A estratégia da Anthropic, assim como a da OpenAI antes, é lógica e razoável: se você quiser "abusar" das vantagens da IA e fazer uso intensivo de sua capacidade, terá que pagar a mais.

Há mais uma alternativa nessas áreas: pagar pelo uso da API: aqui, podemos consumir o quanto quisermos, e o pagamento por uso é medido em custo por milhão de tokens de entrada ou saída. Se o modelo for mais moderno e eficiente, você paga mais. Se for mais antigo e modesto, menos.
No Anthropic, por exemplo, o Claude 3.7 Sonnet (seu melhor modelo atualmente) custa US$ 3 por milhão de tokens de entrada e US$ 15 por milhão de tokens de saída (respectivamente R$ 16,8 mi e R$ 84 mi) . A versão anterior, Claude 3.5 Haiku, custa US$ 0,8 por milhão de tokens de entrada e US$ 4 por milhão de tokens de saída (R$ 4,48 mi e R$ 22 mi).
Com o modelo de pagamento por uso proposto pelas APIs, que é muito voltado para desenvolvedores e empresas – e especialmente útil para programadores – também existem grandes diferenças entre alguns provedores e outros. O modelo o1-pro do ChatGPT Pro é, por exemplo, 140 vezes mais caro em termos de custo de API do que o o3-mini disponível no ChatGPT.
O que está claro é que as empresas já delinearam como vamos pagar pelo uso da inteligência artificial. Não pagaremos apenas por aquela que for mais avançada; se quisermos usá-la muito, também teremos que pagar mais.
No momento, uma coisa é clara: usar IA pode ser gratuito, mas se você quiser usá-la muito e bem, prepare seu bolso.
Imagem | Solen Feyissa
Ver 0 Comentários