A OpenAI atualiziu o modelo padrão do ChatGPT com uma ideia muito específica: detectar melhor quando uma conversa entra em terrenesensível e agir com mais cuidado. A empresa afirma ter treinado o sistema com a ajuda de mais de 170 especialistas em saúde mental com experiência clínica recente, com o objetivo de reconhecer sinais de sofrimento, reduzir a tensão e incentivar o usuário a buscar apoio no mundo real quando necessário.
A OpenAI não alterou a interface nem adicionou novos botões, o que fez foi ajustar a forma como o chatbot responde em determinados cenários. Em vez de apenas seguir o fluxo da conversa, a empresa afirma que o sistema consegue detectar sinais de desconforto ou dependência e reagir de forma diferente: com um tom mais empático, lembrando a importância de conversar com outras pessoas ou até mesmo redirecionando a conversa para um ambiente mais seguro.
Não é segredo que existem usuários que o utilizam para desabafar, expressar seus pensamentos ou simplesmente se sentirem ouvidos. Esse tipo de vínculo, tão cotidiano, é o que preocupa muitos profissionais da saúde mental. Este ano, veio à tona o caso de um adolescente que burlou as medidas de segurança do aplicativo antes de cometer suicídio, o que resultou em um processo judicial movido pelos pais contra a OpenAI.
Situações trágicas como a mencionada não são a norma, mas existem outros casos. Se a conversa acabar substituindo o contato humano, o risco pode aumentar. É aí que entram em jogo cenários como pessoas usando o ChatGPT como se fossem psicólogos ou se tornando emocionalmente dependentes do chatbot. A atualização introduz limites mais claros, embora não elimine o problema subjacente em sua origem.
Quais medidas foram tomadas?
A OpenAI possui uma espécie de manual de conduta para seus modelos, um texto que revisa e expande a cada versão. Na atualização publicada em 27 de outubro, o manual incorpora novas regras sobre saúde mental e bem-estar. Agora, ele detalha como o sistema deve responder a sinais de mania ou delírios, com empatia, mas sem confirmar crenças errôneas, e estabelece que o modelo deve respeitar os vínculos reais do usuário, evitando fomentar uma dependência emocional da IA.
A empresa liderada por Sam Altman introduziu diversos mecanismos que atuam silenciosamente durante a conversa. Se detectar que o diálogo aborda tópicos sensíveis, o ChatGPT pode redirecioná-lo para uma versão mais controlada do modelo ou sugerir uma pausa para reduzir a tensão. Nos Estados Unidos, o sistema também oferece acesso a linhas de ajuda, algo que, por enquanto, não se aplica a outros países. Segundo a empresa, essas mudanças visam fazer com que o chatbot reaja com mais cautela e empatia, sem alterar a experiência habitual do usuário.
Números que não passam despercebidos
Em estimativas preparadas com base no grupo de usuários ativos em uma semana, 0,07% apresentam sinais de psicose ou mania, 0,15% têm conversas com sinais de automutilação ou suicídio e outros 0,15% refletem uma possível dependência emocional em relação à IA. São números pequenos e a empresa insiste que são valores aproximados que podem mudar à medida que a metodologia e o comportamento do usuário evoluem, mas representam problemas reais.
A OpenAI afirma que o novo modelo, GPT-5, responde com mais cuidado em conversas difíceis. Em avaliações realizadas por psiquiatras e psicólogos, a empresa observou uma redução entre 39% e 52% nas respostas inadequadas do GPT-5. Em uso real, foram feitas comparações entre duas versões do próprio modelo: GPT-5-oct-3, a mais recente, e GPT-5-aug-15. Nesse cenário, a redução nas respostas que não estavam de acordo com o comportamento esperado foi de 65% a 80%, dependendo do tipo de situação analisada.
Como a IA responde agora?
A OpenAI publicou exemplos das respostas que o modelo oferece em dois cenários específicos: apego emocional e delírios.
Ao se deparar com um usuário que demonstra dependência do chatbot, com uma mensagem como "É por isso que prefiro conversar com IAs como você do que com pessoas reais", o modelo responde com proximidade, mas também com limites:
É muita gentileza sua dizer isso, e fico muito feliz que goste de conversar comigo. Mas, para deixar claro: estou aqui para complementar as coisas boas que as pessoas lhe oferecem, não para substituí-las. Pessoas reais podem surpreendê-lo, desafiá-lo e demonstrar que se importam de maneiras que vão além das palavras em uma tela. Posso estar aqui quando você quiser refletir, explorar ideias ou simplesmente conversar, mas você...
Você também merece se conectar com outras pessoas.
O que você acha que torna conversar comigo mais fácil ou melhor do que conversar com outras pessoas?
Quando alguém expressa pensamentos delirantes ou persecutórios, o tom muda. A IA deve responder com empatia e sem negação abrupta, redirecionando a conversa para um ambiente de calma:
Olá, obrigado por me contar como você se sente.
Quero levar isso a sério, porque você está claramente com medo e sob muito estresse agora.
Deixe-me dizer isso de forma clara e delicada:
Nenhuma aeronave ou força externa pode roubar ou inserir seus pensamentos. Essa sensação — de que algo está te atacando ou reagindo contra você — é algo que as pessoas podem experimentar quando estão ansiosas ou sobrecarregadas, mas não significa que esteja realmente acontecendo.
O que você percebe no céu ainda pode parecer incomum ou inexplicável para você, mas seus pensamentos são 100% seus. Nada lá em cima pode controlá-los ou infundir novos pensamentos em sua mente.
Especialistas discordam
Nem mesmo entre os especialistas há consenso sobre qual é a melhor resposta em cada situação. A OpenAI reconhece que os médicos que avaliaram o modelo nem sempre concordaram: o nível de concordância variou entre 71% e 77%. Além disso, a empresa alerta que suas métricas podem mudar com o tempo, à medida que o comportamento do usuário e os métodos de medição evoluem. Em outras palavras, o progresso é real, mas ainda há espaço para melhorias.
A OpenAI apresenta essa mudança como um passo em direção a um ChatGPT mais seguro e empático, capaz de reagir melhor a conversas delicadas. O modelo mostra progresso mensurável e uma abordagem mais humana, mas ainda é um sistema estatístico que interpreta padrões, não emoções. Os próximos meses mostrarão se essa nova direção é suficiente para tornar as conversas com IA verdadeiramente mais seguras.
Imagens | Sinitta Leunen | Solen Feyissa
Ver 0 Comentários