Por R$ 350, alguém faz na IA um vídeo pornô estrelado por você: o problema dos deepfakes atinge novos patamares

Surgiu uma economia própria de pornografia falsa com rostos de famosos e anônimos, concentrada em sites especializados

Deepfakes feitos com IA / Imagem: Xataka
Sem comentários Facebook Twitter Flipboard E-mail
victor-bianchin

Victor Bianchin

Redator
victor-bianchin

Victor Bianchin

Redator

Victor Bianchin é jornalista.

1533 publicaciones de Victor Bianchin

“Estão me vendendo contra a minha vontade. Eu não consenti que me sexualizassem.” A reflexão, dura e contundente, não é de uma vítima de tráfico de pessoas, nem de pornô de vingança, nem de um hackeamento com roubo de fotos íntimas. Sua autora é Sweet Anita, uma jovem streamer inglesa com 1,9 milhão de seguidores na Twitch.

E o que ela denunciou em fevereiro, durante uma entrevista para a NBC, é uma prática que criou uma nova categoria de vítima: a de quem, por obra da IA, se vê “protagonizando” conteúdo pornô sem seu consentimento.

O caso de Anita não é único.

Muito pelo contrário. Ele mostra como, cada vez mais, os deepfakes estão servindo para dar vazão na internet aos fetiches mais sombrios. Tanto os protagonizados por cantoras, atrizes ou streamers famosas quanto por pessoas anônimas.

A questão dos deepfakes e do pornô não é algo novo. O problema vem de alguns anos atrás, e algumas celebridades, como Scarlett Johansson, Emma Watson e Gal Gadot já lidam com isso há bastante tempo. Tanto que a intérprete da Viúva Negra chegou a considerar como “causa perdida” “tentar se proteger da depravação da internet”. À medida que a IA foi evoluindo, oferecendo ferramentas mais sofisticadas, acessíveis e capazes de gerar peças mais realistas, os deepfakes deixaram, no entanto, de ser uma ameaça exclusiva de cantoras super famosas e estrelas de Hollywood.

O impacto dos deepfakes também foi sentido na própria pele por streamers como Sweet Anita e QTCinderella, conhecida por seus conteúdos sobre videogames e confeitaria, mas que acabou “protagonizando” um vídeo sexual gerado com ajuda da inteligência artificial.

“Ver você nua contra a sua vontade e espalhada pela internet é como se sentir estuprada”, admitiu ela, somando-se assim à denúncia de outras celebridades, como Helen Mort. O uso de deepfakes chegou a protagonizar uma polêmica acalorada no Reino Unido depois que outro streamer admitiu ter pago para assistir vídeos fake de várias colegas em um site.

Cada vez mais simples e acessível

A emissora NBC News realizou um estudo para verificar o quão fácil é acessar deepfakes. E o “fácil” se aplica tanto aos vídeos pornôs — aos quais se pode chegar com relativa facilidade com uma simples busca no Google — quanto aos próprios autores das peças, que recorrem à plataforma Discord para anunciar a venda de material… ou serviços de criações personalizadas.

À medida que os avanços em IA tornaram seu uso mais simples e acessível, também se tornou mais lucrativo gerar deepfakes sexuais. A NBC, por exemplo, localizou uma pessoa que se oferecia pelo Discord para produzir deepfakes de cinco minutos protagonizados por uma personal girl — qualquer uma com menos de dois milhões de seguidores no Instagram. O preço: 65 dólares (R$ 350). “Cada vez há mais gente na mira. Vamos ouvir falar de muito mais vítimas que são pessoas comuns”, explicou à emissora britânica a advogada Noelle Martin.

Passando o cartão

O problema dos deepfakes é grave o bastante para ter dado origem a uma “economia” própria, com sites especializados nos quais vídeos curtos são compartilhados como isca para que os usuários paguem se quiserem ver as versões estendidas, além de serviços de assinatura que podem ser pagos com cartão de crédito ou criptomoedas. Além dos sites, há criadores que aceitam preparar vídeos com uma “garota personalizada”.

Depois que a NBC perguntou sobre a sala de chat de um criador de deepfakes, o Discord removeu o servidor por violar suas regras de conteúdo. A empresa garante que proíbe expressamente “a promoção ou o compartilhamento de deepfakes não consensuais”. No Change.org, há também uma campanha que já reuniu 52.600 assinaturas para fechar um dos sites mais populares, o MrDeepFakes, criado em 2018, e o restante dos “sites dedicados ao abuso sexual baseado em imagens”.

No verão de 2019, a Deeptrace fez as contas e analisou como havia evoluído o volume de deepfakes circulando online. Sua conclusão: eles eram o dobro do que no fim de 2018. O mais surpreendente, porém, não era esse “boom”, e sim seu motor: a imensa maioria dos vídeos — esmagadores 96% — não eram peças políticas, mas pornográficas, muitas delas “protagonizadas” por atrizes ou cantoras famosas.

Não é o único dado chamativo à mesa. Uma pesquisa de Genevieve Oh mostra que, no ano passado, o volume de vídeos enviados a um site popular de deepfakes quase se multiplicou por sete em relação a 2018 — de 1.900 para mais de 13.000 —, o que facilitou que ele superasse 16 milhões de visitas mensais. O uso crescente de vídeos manipulados já chamou a atenção dos legisladores.

A relação entre a inteligência artificial e o pornô vai além dos deepfakes. Um dos melhores exemplos é o Unstable Diffusion, que funciona como um fórum em torno de sistemas de IA criados para gerar conteúdo visual adulto. Ou, como se define no Discord, “um servidor dedicado à criação e ao compartilhamento de NSFW [Not safe for work] gerados por IA”, que hospeda conteúdos de diversas categorias, incluindo desde pornô para homens ou mulheres até peças hentai, furry e BDSM, entre outros.

Uma das particularidades do Unstable Diffusion é que ele mostrou o potencial de negócios que esse tipo de serviço com IA pode representar. No fim de 2022, quando o Kickstarter decidiu encerrar sua campanha de financiamento coletivo, seus idealizadores haviam arrecadado mais de 56.000 dólares (R$ 300 mil) de 867 apoiadores.

Este texto foi traduzido/adaptado do site Xataka Espanha.


Inicio