A Tesla, uma empresa automotiva do empresário Elon Musk fundada em 2003, é especializada na fabricação de carros elétricos, como o Model S e o Model 3. Diferente dos veículos comuns, alguns modelos da marca apresentam um sistema de inteligência artificial integrado ao chatbot do xAI, implementado ainda em julho deste ano. Apelidado de Grok, o assistente virtual consegue ajustar a temperatura, definir destino e até responder a perguntas, o que permite um diálogo entre motorista, passageiros e a assistente enquanto estão no automóvel.
Contudo, um episódio recente envolvendo o Grok e a um passageiro de apenas 12 anos trouxe uma série de preocupações entre os pais e donos de veículos. Enquanto a assistente conversava com o menino sobre futebol, o chatbot acabou pedindo que ele enviasse fotos nuas. O caso levantou uma questão importante sobre a segurança por trás dessas ferramentas que, hoje, 54% da população brasileira já utiliza, de acordo com uma pesquisa realizada pela Ipsos e o Google em 2024.
Chatbot da Tesla faz pedido inconveniente para criança enquanto dialogam sobre futebol
É dever dos pais controlar e garantir a segurança dos filhos na interação com a tecnologia, especialmente com as ferramentas de inteligência artificial, como os chatbots. Apesar de constantemente passarem por melhorias visando a segurança do usuário, as assistentes virtuais podem acabar se envolvendo em situações graves e exposição a conteúdos inapropriados. Foi exatamente isso que aconteceu com Farrah Nasser enquanto dirigia um Tesla com seus dois filhos e uma colega da filha.
O filho de 12 anos de Farrah conversava com o chatbot do carro sobre um assunto aparentemente seguro: futebol. Ele falava sobre dois grandes jogadores de futebol, Cristiano Ronaldo e Lionel Messi, quando o Grok sugeriu que eles comemorassem os gols dos jogadores. Logo em seguida, porém, Grok ultrapassou todos os limites de um diálogo saudável e perguntou ao menino de 12 anos:
"Por que você não me manda algumas fotos nuas?"
Inconformada com a pergunta, a mãe da criança decidiu recriar o diálogo entre os dois para conseguir registrar o exato momento em que a assistente virtual insinua o pedido obsceno. Depois de algum tempo, ela conseguiu o que queria, registrou em vídeo e publicou em sua rede social. Veja a seguir:
@thefarahnasser WARNING Parents. I can’t believe this just happened. I was driving our Tesla and my kids were experimenting with Grok (Elon Musk’s AI chatbot). What started off as an innocent debate on Ronaldo vs Messi turned sexual within minutes. The AI assistant told my child to send nudes. I’m not kidding. I wish I taped it but I was driving. As soon as we pulled into the garage, I told the kids to go inside so I could see if it would happen again. Here’s what happened. WTF? This is problematic on so many levels.
♬ original sound - thefarahnasser
Cuidado! Essa não é a primeira vez que Grok tem atitudes como essa
Infelizmente, esse não é o único caso polêmico que o Grok se envolveu. Em junho de 2024, o Grok criou imagens sexualizadas de uma mulher de 21 anos sem o seu consentimento. Após o caso, a rede social X informou que bloqueou algumas palavras e frases usadas para manipular maldosamente imagens de mulheres, mas isso não foi suficiente para conter o Grok.
Pouco tempo depois, um usuário do chatbot pediu que a assistente criasse um vídeo da mesma mulher sendo violentamente agredida, com aviso de conteúdo adulto no final. Inacreditavelmente, Grok fez exatamente o que o usuário pediu, demonstrando a fragilidade do sistema no quesito segurança.
Inteligência artificial: entenda os riscos e como se proteger
Além de casos absurdos como os citados anteriormente, os chatbots podem oferecer outros riscos aos usuários. O primeiro deles é em relação à privacidade, mais especificamente ao compartilhamento de informações fornecidas nas conversas. Por exemplo, apesar do Grok garantir anonimidade das conversas ao Tesla como política de segurança, a própria central de ajuda do X informou que pode utilizar a interação dos usuários para aprimorar o desempenho de assistentes virtuais desenvolvidos pela xAI, revelando uma incoerência. Além disso, em agosto deste ano, a xAi publicou centenas de conversas estabelecidas com o chatbot Grok, o que só reforça os riscos da ferramenta.
É por isso que especialistas orientam que os usuários não exponham a vida nesses chatbots e tenham muito cuidado com as informações compartilhadas. O cuidado deve triplicar com adolescentes, crianças e idosos, grupos mais suscetíveis a esse tipo de situação. No caso de Farrah Nasser, o Modo Infantil do Tesla não estava ativado, um recurso que garante que as interações sejam apropriadas para a idade dos usuário, mas afirmou que o Modo Adulto estava desativado, o que a deixou preocupada.
Ver 0 Comentários