A atividade de bots alimentados por inteligência artificial explodiu 300% em apenas um ano, impulsionando uma nova onda de fraudes digitais, raspagem de dados e manipulação de preços em escala global. O alerta vem do novo relatório State of the Internet (SOTI) da Akamai Technologies, que revela como o cibercrime se adaptou rapidamente às novas ferramentas.
Segundo o Fraud and Abuse Report 2025 da empresa, os bots com IA já representam quase 1% de toda a automação detectada na plataforma da Akamai, o que equivale a bilhões de interações diárias. "Os bots com IA impulsionam ataques ao manipular e imitar ações legítimas de pessoas, permitindo fraudes digitais, transações não autorizadas e identidades falsas", explica Fernando Serto, Field CTO da Akamai para a América Latina.
Brasil lidera atividade de bots com IA na região
Enquanto o fenômeno é global, a América Latina se destaca como um alvo principal, e o Brasil está no epicentro. O ambiente digitalizado da região, combinado com a adoção massiva de sistemas de pagamento instantâneo como o Pix, cria o cenário ideal para a exploração de vulnerabilidades.
Entre julho e agosto de 2025, a Akamai identificou 948 bilhões de interações de bots na América Latina; destas, 697 milhões foram geradas especificamente por bots de IA. O Brasil lidera com folga, concentrando 408 milhões dessas interações, seguido pelo México, com 230 milhões.
Os setores mais visados na região são:
- Varejo: 468 milhões de detecções.
- Serviços Financeiros: 83 milhões de detecções.
- Setor Público: 40 milhões de detecções.
Entre os bots de IA mais ativos monitorados na região estão GPTBot, ChatGPT-User, Meta-ExternalAgent, ClaudeBot e OAI-SearchBot.
A era do "cibercrime como serviço"
A inteligência artificial não apenas aumentou o volume de ataques, mas também democratizou o acesso a eles. "A inteligência artificial transformou o cibercrime em um serviço", afirma Serto. O relatório destaca o avanço do modelo fraud-as-a-service (FaaS), onde golpes prontos são vendidos em mercados clandestinos.
Ferramentas como FraudGPT e WormGPT usam IA generativa para criar e-mails de phishing convincentes, códigos maliciosos e identidades falsas em minutos.
Atividades que antes exigiam alto conhecimento técnico agora são acessíveis a qualquer pessoa, permitindo que criminosos aluguem bots para realizar ataques ou comprar ingressos de eventos disputados antes do público geral.
Como as empresas podem se proteger
Diante desse cenário, a Akamai recomenda que as empresas abandonem a ideia de simplesmente bloquear todo tráfego automatizado, pois isso pode barrar mecanismos de busca legítimos. "A orientação é monitorar antes de bloquear", diz Serto.
A estratégia deve ser diferenciar a intenção e a identidade do bot. Isso exige a criação de camadas de defesa, incluindo detecção comportamental, limitação de requisições e firewalls especializados em IA.
Adoção de estruturas de defesa reconhecidas, como o OWASP Top 10 e o OWASP API Security, é essencial para mapear e corrigir vulnerabilidades críticas em aplicações e APIs, que são os alvos preferidos desses novos ataques.
Ver 0 Comentários