Os chatbots de IA estão no centro das atenções devido aos seus possíveis riscos para a saúde mental das pessoas, especialmente o ChatGPT. Recentemente, essa questão ficou muito em evidência após acusações de que o ChatGPT era o culpado por causar delírios e até mesmo o suicídio de um adolescente nos Estados Unidos. Embora já tenhamos visto que a realidade é muito mais complexa do que um simples “a culpa é da IA”, a OpenAI respondeu à onda de críticas e já tem um pacote de medidas que serão integradas ao ChatGPT para evitar mais casos semelhantes.
O plano da OpenAI
Em resposta à polêmica após o caso de Adam Raine, a OpenAI detalhou as medidas que serão implementadas no ChatGPT, que se concentrarão em facilitar o acesso a serviços de emergência, entrar em contato com pessoas de confiança e reforçar as medidas de proteção voltadas para adolescentes. A empresa estabeleceu um prazo de 120 dias para integrar essas novidades, embora avise que algumas levarão um pouco mais de tempo do que outras.
Modelos de raciocínio
O GPT-5 escolhe automaticamente o melhor modelo em função das necessidades. Uma das soluções propostas pela OpenAI para conversas que tomam um rumo preocupante é encaminhá-las automaticamente para o seu modelo de raciocínio, independentemente do modelo selecionado pelo usuário.
Controle parental
Este recurso chegará no próximo mês, e a idade mínima para uso será 13 anos. Os pais poderão vincular a conta do filho à sua e desativar recursos como memória e histórico de bate-papo. Eles também receberão uma notificação caso detectem que o filho está "em um momento de grande sofrimento".
Colaboração com especialistas
A OpenAI garante que todas essas melhorias serão implementadas sob a supervisão de especialistas em saúde mental. Há muito tempo, eles contam com um Conselho de Especialistas em Bem-Estar e Inteligência Artificial, o qual foi expandido para incluir especialistas em vícios, transtornos alimentares e saúde do adolescente.
O processo
Este não é o primeiro caso em que o ChatGPT é responsabilizado por uma crise de saúde mental, mas é um dos mais notórios. Os pais de Adam Raine processaram a OpenAI após o suicídio do filho, alegando que o ChatGPT validava seus "pensamentos mais prejudiciais e autodestrutivos". Em uma de suas conversas, ele chegou a discutir detalhes de como dar o nó na corda com a qual planejava cometer suicídio.
Medidas de segurança fracas
Em seu relatório "Fake Friend", o Centro de Combate ao Ódio Digital já constatou que as medidas de segurança para chatbots de IA são muito fracas, e o caso de Adam Raine corrobora isso. O ChatGPT detectou repetidamente um risco de automutilação e o incentivou a ligar para a linha direta de prevenção ao suicídio. Adam conseguiu evitar essas mensagens simplesmente dizendo ao centro que estava procurando informações para uma história fictícia. Os novos controles parentais parecem ser a primeira e mais robusta medida contra esse problema.
Ver 0 Comentários