A Coreia do Sul está intensificando seus esforços para combater o fenômeno do *deepfake* pornográfico, que se transformou em uma grave crise social. Diante do aumento das denúncias sobre o uso de inteligência artificial para criar imagens e vídeos falsos de caráter sexual, Seul decidiu acionar a máquina administrativa para endurecer sua legislação sobre o tema — e de forma contundente.
Agora, a punição não será apenas para aqueles que criam deepfakes sexuais com a intenção de divulgá-los. O projeto de lei em que os políticos sul-coreanos estão trabalhando prevê pesadas multas ou até penas de vários anos de prisão para quem comprar, armazenar ou simplesmente assistir intencionalmente a esse tipo de conteúdo.
O que aconteceu?
A Coreia do Sul quer endurecer sua legislação para combater o deepfake pornográfico. Atualmente, quem cria e divulga esse tipo de material já enfrenta penas de até cinco anos de prisão e multas que podem chegar a 50 milhões de wones, cerca de 38.000 dólares. No entanto, as autoridades sul-coreanas querem ir além, punindo também aqueles que armazenam ou consomem esse conteúdo.
Com esse propósito, foi elaborado um projeto de lei que prevê multas e prisão para pessoas que, conscientemente, lidem com pornografia contendo imagens falsas criadas com IA. Na quarta-feira, um comitê parlamentar deu o aval para revisar a norma, e dias atrás, segundo informações da Reuters, os legisladores aprovaram o projeto.
Três anos atrás das grades
As punições para aqueles que conscientemente armazenarem ou visualizarem conteúdo deepfake sexualmente explícito não serão brandas. O Korea Times esclarece que a lei revisada prevê penas de até três anos de prisão ou multas de 30 milhões de wones, cerca de 22.600 dólares. O objetivo é desestimular qualquer pessoa que cogite comprar, armazenar ou visualizar material deepfake, ou seja, conter sua proliferação.
No foco político
A importância do tema no país é evidenciada pelo fato de que também foi aprovado outro projeto de lei que ordena a remoção de deepfakes ilegais e garante apoio às vítimas. Na quarta-feira, o comitê parlamentar também concordou em revisar a lei para punir ainda mais severamente aqueles que utilizam material sexual para chantagear crianças ou adolescentes.
O que dizem os números?
A proposta é rigorosa, mas não surpreendente. No final de agosto, o presidente da Coreia do Sul, Yook Suk Yeol, ordenou a adoção de medidas para conter o impacto da pornografia deepfake, material sexual falso criado com a ajuda de IA. "É uma exploração da tecnologia que se apoia na proteção do anonimato. E um claro ato criminoso", alertou Yook.
A Agência Nacional de Polícia sul-coreana divulgou algumas estatísticas que ajudam a entender até que ponto esse tipo de conteúdo se tornou um problema sério no país. Em 2024, já foram apresentadas 812 denúncias à polícia por crimes sexuais relacionados a deepfakes, resultando na detenção de 387 suspeitos. Se esses números já não fossem alarmantes por si só, dois pontos destacam sua gravidade.
Quase metade dessas denúncias, 367, foram feitas apenas no último mês, após as autoridades lançarem uma campanha especial para combater esse tipo de crime. Além disso, 83,7% dos detidos eram adolescentes.
Mais preocupante ainda, 66 deles não haviam sequer completado 14 anos, o que, legalmente, os isenta de punições penais. Outros 13% tinham entre 20 e 30 anos.
"Uma epidemia"
A Coreia do Sul não é o único país que enfrenta o enorme desafio dos deepfakes. Casos também foram registrados nos EUA e até na Espanha, onde, há um ano, uma denúncia especialmente grave surgiu na Extremadura, também envolvendo menores. Na Coreia do Sul, contudo, o problema é tão profundo que a Human Rights Watch manifestou publicamente sua preocupação.
"A Coreia do Sul enfrenta uma epidemia de crimes sexuais digitais, onde centenas de mulheres e meninas são vítimas de imagens sexuais falsas compartilhadas na Internet," alerta Heather Barr, diretora associada da Divisão de Direitos da Mulher. Recentemente, Sungshin Bae, pesquisadora e funcionária da Procuradoria da Coreia do Sul, também se referiu ao problema como uma “crise” em artigo para The Conversation.
"Fiquei sem reação."
“A inteligência artificial está alimentando uma crise de deepfake pornográfico no país", lamentava Bae, antes de compartilhar um dado revelador: recentemente, a Security Heroes analisou cerca de 96.000 vídeos sexuais criados com IA a partir de diferentes fontes e descobriu que pouco mais da metade do material, cerca de 53%, apresentava cantoras e atrizes sul-coreanas.
O problema também afeta mulheres fora dos holofotes, como Heejin, pseudônimo de uma universitária que, recentemente, contou à BBC como se sentiu ao descobrir que circulava em um chat uma foto pornográfica falsa dela, gerada por IA a partir de uma imagem real de caráter claramente pessoal. "Não conseguia parar de pensar: isso aconteceu porque postei minhas fotos nas redes? Deveria ser mais cuidadosa? Fiquei petrificada, me senti muito sozinha".
O The Guardian destacou que, no Telegram, foi localizada uma sala de chat com cerca de 220.000 membros dedicados a criar e compartilhar imagens manipuladas de mulheres, incluindo jovens, universitárias, professoras e militares. Para isso, recorriam a fotos tiradas de redes sociais como Instagram.
Imagens | Carles Rabada (Unsplash) e卡晨 (Unsplash)
Ver 0 Comentários