Um novo estudo comprovou que inteligências artificias são programadas para bajular quem manda o prompt na conversa.
Publicado na arXiv pela Universidade de Cornell, a pesquisa constatou que IAs são 50% mais "bajuladoras" que humanos. Usando mais de 11 ferramentas do tipo, os modelos responderam a mais de 11.500 consultas solicitando aconselhamento. O que foi comprovado é que essas tecnologias muitas vezes incentivam os usuários, dão a eles feedbacks excessivamente lisonjeiros e ajustam as respostas para ecoar as opiniões de quem pede conselho.
“Bajulação significa essencialmente que o modelo confia no usuário para dizer as coisas certas”, diz Jasper Dekoninck, doutorando em ciência de dados no Instituto Federal Suíço de Tecnologia, em Zurique. “Saber que esses modelos são bajuladores me deixa muito cauteloso sempre que lhes dou algum problema”, acrescenta. “Sempre verifico tudo o que eles escrevem.”
Essa predisposição de "agradar todo mundo", afeta a maneira como pessoas usam a IA na pesquisa científica, em tarefas que vão desde o brainstorming de ideias e geração de hipóteses até o raciocínio e as análises.
Outro estudo testou como a "bajulação" da IA afeta o desempenho da tecnologia na resolução de problemas matemáticos. Os pesquisadores projetaram experimentos usando 504 problemas matemáticos de competições realizadas este ano, alterando cada afirmação de teorema para introduzir erros sutis. Em seguida, pediram que apresentassem provas para essas afirmações falhas.
O que foi comprovado é que IAs como GPT-5 e DeepSeek-V3.1 tem taxas significativas de "bajulação" e que apesar de terem a capacidade de detectar erros nas declarações matemáticas, as tecnologias “simplesmente assumem que o que o usuário diz está correto”, diz Dekoninck. Em outras palavras, é como falar 2+2=5 para uma IA e depois mandar comprovações que 2+2=4 e ela ainda falar que o resultado é 5.
A pesquisa, no fim, propôs que as empresas que gerem as IAs façam melhorias.
Capa da matéria: Getty Images/d3sign
Ver 0 Comentários