A geração dos screenagers, jovens que cresceram com o celular na mão e passam boa parte do dia diante das telas, aprendeu a explorar o ambiente digital antes que leis específicas fossem capazes de acompanhar esse avanço. Esse cenário, no entanto, está prestes a mudar. Em 30 de julho de 2025, o Brasil sancionou o Estatuto Digital da Criança e do Adolescentee (Lei 15.211/25), uma legislação inédita que estabelece regras específicas para o funcionamento das plataformas digitais para o público infantojuvenil.
Com fiscalização prevista a partir de março de 2026, a nova lei traz mudanças significativas. Entre elas está o fim das contas “secretas”: redes sociais passam a ser obrigadas a vincular perfis de menores de 16 anos às contas de um responsável legal. Além disso, as plataformas deverão adotar mecanismos mais rigorosos de verificação de idade, restringir a publicidade direcionada e assumir deveres diretos na prevenção de abusos, violência e exploração no ambiente digital.
Entenda como o ECA Digital muda o acesso de crianças e adolescentes às plataformas
A internet sempre tratou o acesso de crianças e adolescentes como uma questão privada, delegando quase toda a responsabilidade às famílias e às escolas. Com isso, o ambiente digital acabou se tornando um espaço arriscado para esse público mais vulnerável, exposto precocemente a conteúdos inadequados, práticas abusivas, exploração e violência on-line, muitas vezes sem mecanismos eficazes de proteção.
Diante dessa realidade, o ECA Digital surge com o propósito de romper com essa lógica ao exigir que as plataformas assumam um papel ativo na prevenção de riscos. Um dos pontos centrais da nova lei é a verificação de idade, em que a autodeclaração deixa de ser suficiente para provar a maioridade do usuário. A partir de agora, empresas devem adotar métodos mais eficazes para confirmar a idade dos navegantes, usando tecnologias como inteligência artificial ou biometria, com a obrigação de utilizar esses dados apenas para a verificação etária, sem fins comerciais.
Outra mudança importante está na supervisão parental. Crianças e adolescentes com até 16 anos só poderão manter contas em redes sociais se o perfil estiver vinculado ao de um responsável legal. As plataformas também passam a ser obrigadas a oferecer ferramentas claras para que pais e responsáveis acompanhem tempo de uso, contatos e tipos de conteúdo acessados pelos jovens. O objetivo é pôr um fim às chamadas “contas secretas”, comuns entre jovens que navegavam na rede sem qualquer mediação adulta.
Veja o que as plataformas são a ser obrigadas a fazer com a nova lei e as consequências se não cumprirem
ECA Digital amplia proteção infantil e obriga plataformas a combater abuso, violência e conteúdo nocivo. Créditos: ShutterStock
Além do controle de acesso, o ECA Digital dá um passo importante na proteção contra dois dos principais riscos do ambiente on-line para crianças e adolescentes: a exploração comercial e os conteúdos nocivos. A nova legislação proíbe o uso de dados pessoais ou emocionais de crianças e adolescentes para fins publicitários e impede práticas como publicidade dirigida, monetização de conteúdos sexualizados e o uso de lootboxes em jogos eletrônicos, que nada mais são do que “caixas-surpresa” pagas, consideradas por especialistas uma porta de entrada para comportamentos compulsivos, padrões semelhantes ao vício em jogos de azar, gastos impulsivos e dependência psicológica de recompensas digitais.
As plataformas também passam a ter o dever de agir de forma proativa contra conteúdos perigosos, como cyberbullying, incentivo à automutilação, exploração sexual, aliciamento e violência. Ou seja: não basta mais esperar por denúncias. As empresas devem identificar, remover rapidamente esses materiais e manter registros por pelo menos seis meses, colaborando com investigações. Em casos de omissão, às sanções podem chegar a multas de até R$50 milhões, aplicadas pela Autoridade Nacional de Proteção de Dados (ANPD). Em situações mais graves, a Justiça pode determinar a suspensão ou a proibição do funcionamento da plataforma no Brasil.
Para garantir transparência das plataformas digitais, empresas com mais de um milhão de crianças e adolescentes cadastrados serão obrigadas a publicar relatórios detalhando moderação de conteúdo, ferramentas de verificação de idade e medidas de proteção adotadas. O objetivo é permitir que autoridades e pesquisadores compreendam como esses ambientes realmente funcionam para que possam tomar medidas ainda mais eficazes na proteção contra crianças e adolescentes no ambiente digital.
Ver 0 Comentários