Muitos usuários recorrem ao ChatGPT, Claude, Grok ou Perplexity como assistentes pessoais de confiança, compartilhando desde questões de saúde até segredos profissionais. No entanto, um estudo realizado por pesquisadores do IMDEA Networks Institute revela que essa percepção de privacidade é enganosa. Na prática, esses sistemas operam sobre infraestruturas técnicas semelhantes às da web tradicional, repletas de rastreadores de empresas como Meta, Google e TikTok.
A pesquisa alerta que a interface de conversa oculta um ecossistema de coleta de dados voltado para publicidade digital. Informações sensíveis, como títulos de chats, metadados e até os URLs permanentes das conversas (permalinks), podem ser transmitidos a terceiros. Em alguns casos, controles de acesso frágeis permitem que qualquer pessoa (ou rastreador) com o link da conversa consiga visualizar o conteúdo completo do chat.
O rastro digital das suas conversas
O estudo identificou três riscos principais que comprometem a segurança do usuário:
- Exposição de links: plataformas como Grok e Perplexity enviam URLs de conversas para rastreadores como o Meta Pixel. O Grok chega a expor o texto literal das mensagens através de metadados coletados pelo TikTok.
- Identificação do usuário: o uso de cookies, e-mails criptografados e técnicas de rastreamento no servidor permite que as empresas de tecnologia criem perfis persistentes, vinculando o que você pergunta à IA com a sua identidade real na internet.
- Controles de privacidade ilusórios: embora as políticas de privacidade mencionem o compartilhamento de dados com "parceiros de negócios", elas raramente deixam claro que o conteúdo das conversas faz parte desse pacote.
"A maioria dos usuários não tem como saber que isso está acontecendo; não há nada visível na interface que lhes diga", afirma Aniketh Girish, coautor do estudo. Rejeitar cookies não essenciais ajuda, mas os pesquisadores alertam que isso nem sempre é suficiente para barrar o fluxo de dados.
A necessidade de transparência legal
De uma perspectiva jurídica, o estudo aponta possíveis violações ao GDPR (Regulamento Geral sobre a Proteção de Dados). A falta de uma base legal clara para esse compartilhamento e a insuficiência de informações fornecidas aos usuários são pontos críticos.
Segundo o advogado Jorge García Herrero, que colaborou com a pesquisa, o aviso de que nossas informações sensíveis podem chegar à indústria publicitária deveria ser tão onipresente quanto o alerta de que "a IA pode cometer erros".
Embora preliminares, os achados reforçam a necessidade urgente de mecanismos de controle de acesso mais robustos e de uma fiscalização regulatória rigorosa. Até lá, não trate as conversas com chatbots como um confessionário privado ou um psicólogo.
Ver 0 Comentários