Provavelmente, hoje em dia, navegando pelas redes sociais, você já se deparou com um daqueles memes que dizem tudo com uma imagem: um homem prestes a ser eliminado por robôs é salvo no último momento porque, segundo um deles, "ele sempre dizia obrigado". Um gesto mínimo, quase automático, que o redime diante das máquinas em um futuro distópico e que nos faz sorrir em meio a tantos algoritmos.
Obviamente, não esperamos que robôs assumam o controle do planeta. Mas não é por acaso que essa ideia viralizou. O cinema e a literatura alimentam esse imaginário entre fascínio e medo há décadas. O curioso é que, para além da ficção, há algo de real em tudo isso: ser educado com inteligência artificial (IA) não é de graça. Nossa gentileza, por mais rotineira que seja, custa dinheiro. E não exatamente pouco.
A operação da IA não é exatamente barata
Quando usamos um chatbot de IA, raramente pensamos no consumo de recursos envolvido em cada uma de nossas solicitações. O ChatGPT e outros sistemas semelhantes são alimentados por grandes modelos de linguagem, também conhecidos como LLMs, que operam em data centers equipados com hardware de alto desempenho, como as GPUs H100 da NVIDIA. A execução desses modelos, que tecnicamente é chamada de inferência, requer enorme poder de processamento e, portanto, uma quantidade considerável de eletricidade.
Consumo
A tudo isso se soma o investimento necessário para construir e manter essas infraestruturas, bem como seu impacto ambiental. Sabemos, por exemplo, que muitos desses centros consomem grandes volumes de água para resfriar os sistemas, já que esse tipo de computação gera calor. Muito calor. Não há consenso sobre o custo de cada solicitação, e os valores variam de acordo com a empresa. Mesmo assim, Sam Altman deu uma pista.
O surpreendente custo da gentileza
Há alguns dias, um usuário perguntou nas redes sociais quanto dinheiro a OpenAI teria perdido só porque as pessoas adicionam "por favor" e "obrigado" ao interagir com seus modelos. A resposta do CEO não passou despercebida: "dezenas de milhões de dólares bem gastos". Não se tratava de uma única interação, é claro, mas do acúmulo de milhões de mensagens gentis ao longo do tempo.

É curioso que, apesar do alto custo energético e econômico que isso representa, Altman considere que se trata de um gasto justificado.
É preciso ser gentil com uma IA?
Como em qualquer outra área, há pessoas que preferem ir direto ao ponto e outras que optam por manter um tom mais cuidadoso e educado. Provavelmente, essa diferença também tem a ver com a forma como cada um se comunica no dia a dia. E, nesse contexto, gentileza não é apenas uma questão de boas maneiras.
Um estudo intitulado "Devemos Respeitar os LLMs? Um Estudo Translinguístico da Polidez Rápida no Desempenho Acadêmico" analisou o papel da polidez na indução e chegou a algumas conclusões interessantes. Entre elas, a de que mensagens indelicadas tendem a gerar um desempenho pior. Embora, é claro, o excesso de cortesia não garanta melhores resultados.
O que parece claro para nós que usamos esse tipo de chatbot diariamente, e ainda mais agora que eles conseguem aprender e memorizar com mais precisão, é que eles se adaptam ao tom de voz do usuário. Se quisermos uma interação mais respeitosa, coerente e um pouco mais humana, provavelmente deveríamos começar a dar esse passo nós mesmos.
Imagens | Captura de tela X
Ver 0 Comentários