A OpenAI informou em dezembro do ano passado que o ChatGPT ganhará um “modo adulto” no primeiro trimestre de 2026. O recurso faz parte da evolução do modelo GPT-5.2 e pretende oferecer interações mais livres para usuários com mais de 18 anos, desde que a idade seja verificada. A medida aparece em um momento de disputa entre empresas por modelos de IA cada vez mais sofisticados, mas também trás uma série de críticas e preocupações envolvendo segurança, responsabilidade corporativa e impactos psicológicos. Apesar do rótulo, o “modo adulto” não se limita a conteúdo sexual e levanta questionamentos sobre até que ponto a inteligência artificial deve ir.
Entenda o que a OpenAI chama de “modo adulto”
Apesar da associação imediata com conteúdos sexuais, o “modo adulto” do ChatGPT não está totalmente relacionado a liberação de material erótico — embora esse tipo de conteúdo esteja previsto para usuários adultos verificados. A ideia é permitir que usuários adultos tenham uma experiência menos limitada, com respostas mais diretas, linguagem menos filtrada e maior liberdade na forma como o chatbot se expressa ao longo das conversas.
Isso inclui a possibilidade do sistema desenvolver uma personalidade mais alinhada ao estilo do usuário. A mudança vem após uma série de críticas de que o ChatGPT teria se tornado excessivamente neutro e engessado após ajustes de segurança feitos no GPT-5. Para a OpenAI, o desafio agora é equilibrar essa liberdade, especialmente quando se trata de temas sensíveis.
A verificação de idade do usuário é uma peça-chave da estratégia
Para que o modo adulto funcione, a OpenAI vai utilizar um sistema de estimativa e verificação de idade. A tecnologia ainda está em fase de testes e vem sendo avaliada em alguns países, com o objetivo de diferenciar adolescentes de adultos. Esse tipo de verificação foi impulsionada tanto por novas legislações, quanto quanto por pressão pública. No caso do ChatGPT, a separação entre experiências “adultas” e “seguras para menores” é vista como essencial para evitar exposição precoce a conteúdos e interações mais complexas, ao mesmo tempo em que devolve autonomia aos adultos.
Liberdade, responsabilidade e o risco do vínculo emocional
O anúncio do modo adulto ocorre em um contexto de mudanças na política de segurança da OpenAI. A empresa vem reforçando controles de segurança após casos que expõem alertas sérios sobre saúde mental, incluindo um processo judicial relacionado à morte de um adolescente que havia interagido com o chatbot antes do suicídio. Desde então, a empresa passou a reconhecer explicitamente os riscos de dependência emocional associados à IA.
Um estudo publicado no Journal of Social and Personal Relationships revelou que adultos que desenvolvem vínculos emocionais com chatbots tendem a apresentar níveis mais altos de sofrimento psicológico, especialmente quando possuem poucos relacionamentos fora do ambiente digital. Por isso, ao ampliar o nível de personalização das interações, o modo adulto levanta uma questão central: até que ponto oferecer mais liberdade ao usuário pode ser tratado como uma escolha individual, e quando esse limite passa a ser uma responsabilidade da empresa que desenvolve a tecnologia?
Ver 0 Comentários