Tudo o que você escreve pode ser usado contra você. É isso que os tribunais dos EUA estão propondo ao tentar forçar a OpenAI a armazenar indefinidamente todos os registros de nossas conversas no ChatGPT . Além disso, eles também exigem que salvem os chats que teoricamente pensávamos ter excluído. A situação inevitavelmente levanta a questão: então, a quem pertencem todos esses dados?
O caso New York Times vs. OpenAI está se complicando
Toda a situação atual decorre do processo judicial que opõe o prestigiado jornal à empresa de inteligência artificial. Essa disputa já dura 17 meses . O argumento inicial do NYT era que a OpenAI havia treinado seus modelos com conteúdo do NYT, o que também era exibido em suas respostas aos usuários. Agora, as coisas estão indo mais além.
Nem pense em apagar conversas
Atendendo a um pedido recente do NYT, a juíza Ona Wang, que supervisiona o caso, ordenou que a OpenAI começasse a preservar indefinidamente os registros de todo o conteúdo potencialmente relevante, incluindo conversas temporárias e até mesmo o texto gerado pela API usada por usuários pagantes. Até então, a política de retenção de dados da OpenAI impunha um limite de 30 dias para a preservação das conversas. Depois disso, elas eram teoricamente simplesmente apagadas.
Paywalls
O receio do NYT e de outros veículos de comunicação é que os usuários que usam o ChatGPT para contornar os paywalls "possam estar mais propensos a apagar todas as suas pesquisas para esconder seus rastros", explicou a OpenAI no processo. Segundo os autores, faltam provas para comprovar isso, pois a OpenAI compartilhou apenas amostras de registros de bate-papo que os usuários concordaram que a empresa mantivesse.
A OpenAI recorre
A resposta oficial da OpenAI às demandas de dados do NYT é clara: "Acreditamos firmemente que isso é um exagero. Isso coloca sua privacidade em risco sem realmente ajudar a resolver o processo. É por isso que nos opomos." Representantes da empresa explicam que pediram ao juiz que reconsiderasse a ordem, enfatizando que "tal retenção indefinida de dados do usuário viola os padrões da indústria e nossas próprias políticas".
Quais dados são afetados pela ordem?
As exigências do juiz são muito amplas, mas há detalhes importantes que esclarecem quem é afetado e quem não é:
- Se estiver usando a versão gratuita do ChatGPT, uma assinatura do ChatGPT Plus, Pro ou Team, ou usando a API OpenAI sem um contrato ZDR (Zero Data Retention), você será afetado e seus chats poderão ser preservados indefinidamente.
- Usuários com contas ChatGPT Enterprise ou ChatGPT Edu não são afetados por esta ordem.
- Os usuários da API que optaram pelo ZDR não são afetados pelo acordo.
O que é ZDR?
A "emenda ZDR" refere-se à política de Retenção Zero de Dados, que garante que nenhum prompt seja registrado ou modelos sejam treinados com nossos dados. Esse gerenciamento de dados é especialmente importante para uso corporativo , e é por isso que ele é habilitado por padrão no ChatGPT Enterprise. Para todos os outros planos, o ZDR não é habilitado por padrão, e empresas e indivíduos interessados devem entrar em contato com a OpenAI para negociar os termos. Não há preços publicados para esta opção, mas é um serviço extra e, como tal, impõe um custo adicional ao uso da API de modelos da OpenAI.
Nenhuma evidência
De acordo com a OpenAI, não há evidências de que eles tenham excluído dados intencionalmente, e tudo isso é especulação. Além disso, não há evidências de que usuários que infringem direitos autorais usando o ChatGPT para contornar paywalls tenham maior probabilidade de excluir seus chats. "A OpenAI não destruiu dados e certamente não os excluiu em resposta aos eventos do litígio. A ordem judicial parece ter presumido incorretamente o contrário."
Dados sensíveis
A empresa defende seu dever de proteger "os dados e a privacidade de seus usuários" e explica que milhões de usuários usam o ChatGPT diariamente por motivos que vão "do mundano ao profundamente pessoal". Isso significa que esses usuários estão compartilhando dados sensíveis que afetam não apenas informações financeiras ou médicas, mas também aspectos como seus sentimentos e pensamentos pessoais.

Ramificações
O impacto desta liminar é potencialmente enorme. Como um usuário chamado kepano declarou no X: "Se entendi corretamente, isso significa que as políticas de retenção de dados de aplicativos que usam a API OpenAI simplesmente não podem ser aplicadas". Ou seja, se uma empresa terceirizada que usa os modelos da OpenAI para fornecer seu serviço promete manter seus dados privados, ela não pode garantir essa promessa. As implicações para usuários de todos os tipos são claras. A Ars Technica citou um comentário de um usuário do LinkedIn sugerindo que esta liminar cria "uma grave violação de contrato para todas as empresas que usam a OpenAI". Eles também destacaram postagens no X de usuários afirmando que "todos e quaisquer serviços de IA com tecnologia OpenAI devem se preocupar" com esta situação.
Quem é o proprietário dos dados?
Esta ordem judicial levanta um debate perturbador: quem controla os dados que trocamos com o ChatGPT e, por extensão, com qualquer outro chatbot? Essas empresas são teoricamente responsáveis por gerenciar e excluir esses dados, mas será que elas são as proprietárias?
- O ChatGPT e o Gemini usam chats para treinar seus modelos por padrão, embora esse comportamento possa ser desativado. Nem o Claude nem o Copilot fazem isso, por exemplo. Os dados nesses dois últimos casos são, de certa forma, "mais seus".
- Mas eles continuam a mantê-los por um período variável que geralmente é de 30 dias.
- Com essa ordem judicial, os EUA propõem ter acesso a esses dados se necessário, embora teoricamente deva haver uma investigação judicial por trás disso, como a que está sendo conduzida com o The New York Times.
- E, no entanto, esses dados são ainda mais valiosos como fonte de informação não apenas para empresas privadas, mas também para agências e serviços de inteligência. E já sabemos como a NSA lida com isso .
Como elas normalmente operam
As políticas de retenção de dados são semelhantes em todos os casos , e todas excluem esses chats recebidos e enviados após 30 dias. Essas empresas também costumam ter opções para desativar a retenção de dados — a Anthropic também — que podem ser aplicadas, por exemplo, a usos comerciais ou privados. No entanto, ainda há dúvidas sobre quem, em última análise, tem o controle sobre os dados, e este processo judicial só as agravou.
we have been thinking recently about the need for something like "AI privilege"; this really accelerates the need to have the conversation.
— Sam Altman (@sama) June 6, 2025
imo talking to an AI should be like talking to a lawyer or a doctor.
i hope society will figure this out soon.
Chatbots e confidencialidade
Considerando o uso cada vez mais sensível desses chatbots — tanto profissionais quanto pessoais —, deveria haver garantias muito mais fortes de que ChatGPT, Gemini, Claude e outros chatbots no mercado tratam essas conversas como absolutamente confidenciais. Foi exatamente isso que Sam Altman argumentou há algumas horas, quando afirmou que "conversar com uma IA deveria ser como conversar com um advogado ou um médico".
E quanto à criptografia?
Uma opção seria que essas conversas com esses chatbots fossem criptografadas de ponta a ponta, como acontece com os serviços de mensagens instantâneas, mas, na prática, isso é inviável. Os servidores que recebem nossa solicitação precisam "vê-la" para processá-la e retornar uma resposta, e a criptografia tornaria isso impossível. A Apple já propôs uma solução com a Computação em Nuvem Privada , mas, por enquanto, as principais empresas de IA mantêm uma abordagem na qual essas conversas são tratadas sem qualquer criptografia. A garantia de privacidade é o que eles afirmam ter com seus usuários, mas certamente têm acesso a essas conversas se precisarem.
Ver 0 Comentários