O ano de 2025 foi marcado pelo surgimento do "brain rot", que foi eleita a palavra do ano pelo Dicionário de Oxford. Apesar de para muitos serem apenas personagens criados pela inteligência artificial e que têm nome em italiano sem sentido algum, o brain rot vem sendo estudado com um novo mal na sociedade que está cada vez mais inserida na esfera digital e o curioso disso é que até essas novas tecnologias também podem adquirir.
Pesquisadores da Universidade do Texas comprovaram que para que um robô de IA responda bem ele precisa ser treinado a partir de boas informações, mas a partir do momento que ele é treinado e inserido nas redes sociais, as informações não têm boa qualidade.
Para isso, Zhangyang Wang e sua equipe observaram os efeitos de grandes modelos de linguagem (LLMs) treinados com dados de baixa qualidade como postagens curtas e populares de mídias sociais, ou aquelas com conteúdo superficial ou sensacionalista vindas do X (antigo Twitter).
O que eles descobriram é que modelos que recebem dados de baixa qualidade pulam etapas em seu processo de raciocínio — ou não usam raciocínio algum — resultando em informações incorretas sobre um tópico, ou, quando os autores apresentaram uma questão de múltipla escolha, o modelo selecionava a resposta errada.
O estudo revela algo importante sobre como as IAs são treinadas por quem as usa. Desse modo, quanto melhor a qualidade de informações jogadas na IA para ela estudar, melhor a resposta dela para quem pergunta. No entanto, quanto pior a qualidade, mais a IA vai passar respostas ou informações erradas.
Capa da matéria: Getty Images/d3sign
Ver 0 Comentários