Cada vez mais usuários têm um chatbot com IA como companheiro para tudo, seja ChatGPT, Gemini, Claude ou qualquer outro. O problema surge quando decidimos compartilhar dados sensíveis com esse tipo de ferramenta — afinal, por trás deles há grandes empresas de tecnologia e nunca saberemos com certeza para onde nossos dados estarão indo.
Nesse sentido, há quem compartilhe seus dados jurídicos com o assistente, o que pode acabar resultando em algo como o que ocorreu recentemente em Nova York. Isso porque um juiz da cidade acaba de estabelecer um precedente histórico ao considerar que qualquer conversa mantida com um chatbot é pública e, portanto, não está protegida pelo sigilo profissional advogado-cliente. Ou seja: tudo o que você compartilhar com a IA pode acabar sendo usado contra você em um tribunal.
O caso
Bradley Heppner, um executivo acusado de fraude no valor de 300 milhões de dólares, utilizou o Claude, o chatbot da Anthropic, para tirar dúvidas sobre sua situação legal antes de ser preso. Ele criou 31 documentos com suas conversas com a IA e depois os compartilhou com seus advogados de defesa. Quando o FBI apreendeu seus dispositivos eletrônicos, seus advogados alegaram que esses documentos estavam protegidos pelo sigilo advogado-cliente. O juiz Jed Rakoff disse que não.
Conforme explica Moish Peltz, advogado especializado em ativos digitais e propriedade intelectual, em uma publicação no X, a decisão estabelece três razões. Primeiro, uma IA não é um advogado: não tem licença para exercer, não deve lealdade a ninguém e seus termos de serviço negam expressamente qualquer relação advogado-cliente. Segundo, compartilhar informações jurídicas com uma IA equivale, legalmente, a contá-las a um amigo, portanto não estão protegidas por sigilo profissional. E terceiro, enviar documentos “não privilegiados” ao seu advogado posteriormente não os transforma magicamente em confidenciais.
Como lembra o advogado, a interface desse tipo de chatbot gera uma falsa sensação de privacidade, mas a realidade é que você está inserindo informações em uma plataforma comercial de terceiros que retém seus dados e se reserva o direito de divulgá-los. Segundo a política de privacidade da Anthropic vigente quando Heppner usou o Claude, a empresa pode revelar tanto as perguntas dos usuários quanto as respostas geradas a “autoridades governamentais reguladoras”.
O documento judicial revela ainda um agravante: Heppner inseriu na IA informações que havia recebido anteriormente de seus advogados. Isso levanta um dilema para a promotoria: se tentassem usar esses documentos como prova no julgamento, os advogados de defesa poderiam se tornar testemunhas dos fatos, o que potencialmente forçaria a anulação do processo.
O que isso significa para você
Se você estiver envolvido em qualquer questão jurídica, segundo essa decisão, tudo o que você compartilhar com uma IA pode ser requisitado por um juiz e usado como prova. Não importa se você está preparando sua defesa ou buscando um aconselhamento preliminar, já que cada consulta pode acabar se tornando um fator contra você. E isso não se aplica apenas a casos criminais: divórcios, disputas trabalhistas, litígios comerciais… qualquer conversa com IA sobre esses temas escapa da proteção legal.
Peltz aponta que os profissionais do direito devem alertar explicitamente seus clientes sobre esse risco. Não dá para presumir que as pessoas entendam isso intuitivamente. A solução mencionada passa por criar espaços de trabalho colaborativos com IA, compartilhados entre advogado e cliente, de modo que qualquer interação com a inteligência artificial ocorra sob a supervisão do advogado e dentro da relação advogado-cliente.
Imagem de capa | Romain Dancre e Solen Feyissa
Este texto foi traduzido/adaptado do site Xataka Espanha.
Ver 0 Comentários