SÃO PAULO, SP (FOLHAPRESS) - A proteção de crianças e adolescentes no ambiente digital até aqui dependia de regras dispersas em diferentes leis e de medidas adotadas ou negligenciadas pelas próprias plataformas.
Com a entrada em vigor do ECA Digital nesta terça-feira (17/3), o Brasil passa a ter normas específicas para esse ambiente e impõe às empresas de tecnologia a obrigação de adotar mecanismos de verificação de idade, proteção por padrão e respostas mais rápidas a conteúdos nocivos.
Leia Mais
A nova legislação, formalmente chamada de Estatuto Digital da Criança e do Adolescente (Lei nº 15.211/2025), estabelece regras para produtos e serviços digitais acessíveis a menores de 18 anos, como redes sociais, jogos online, aplicativos e plataformas de compartilhamento de conteúdo.
A exigência de verificação de idade para acesso a conteúdos sensíveis, no entanto, não será aplicada integralmente no início da vigência da lei, na próxima terça-feira (17/3). Segundo integrantes do Ministério da Justiça e Segurança Pública ouvidos pela Folha, a implementação ocorrerá de forma escalonada e pode levar meses.
A definição dos requisitos técnicos caberá à ANPD (Autoridade Nacional de Proteção de Dados), que deverá estabelecer critérios para garantir a segurança e a confiabilidade dos sistemas de checagem etária, como quais tecnologias poderão ser utilizadas e de que forma os dados dos usuários deverão ser protegidos.
O que muda com o ECA Digital
Verificação de idade
Em muitas plataformas, o acesso dependia apenas da autodeclaração de idade do usuário, que podia informar qualquer data de nascimento. Serviços com conteúdo impróprio para menores terão de adotar mecanismos mais confiáveis de verificação de idade. A autodeclaração deixa de ser suficiente nesses casos.
Proteção de dados
Configurações de privacidade e segurança nem sempre vinham ativadas automaticamente e muitas vezes exigiam ajustes manuais por parte das famílias. Agora plataformas deverão adotar configurações mais protetivas por padrão, garantindo maior privacidade e segurança desde o primeiro acesso.
Responsabilidade das plataformas
A atuação das empresas na prevenção de conteúdos nocivos variava conforme as políticas internas de cada plataforma.A nova lei estabelece deveres específicos para empresas de tecnologia, que deverão adotar medidas para prevenir a exposição de menores a conteúdos ilegais ou prejudiciais.
Feed e notificações
Redes sociais e plataformas podiam utilizar recursos como rolagem infinita, autoplay de vídeos e notificações com apelo emocional para tentar manter os usuários on-line. Com a lei, tecnologias que possam prender a atenção de crianças e adolescentes ou insistam para que eles voltem aos aplicativos ficam vedadas.
Remoção de conteúdos nocivos
A retirada de conteúdos dependia muitas vezes de denúncias ou de decisões judiciais, e os prazos variavam entre plataformas. Plataformas passam a ser obrigadas a remover conteúdos que violem direitos de crianças e adolescentes após notificação da vítima, de responsáveis ou de autoridades.
Publicidade direcionada
Dados pessoais de menores de 18 anos podiam ser utilizados para segmentação publicitária em diferentes serviços digitais. A lei proíbe o uso de técnicas de perfilamento para direcionar publicidade comercial a crianças e adolescentes.
Jogos eletrônicos
Jogos direcionados a crianças e adolescentes podiam oferecer loot boxes, caixas de recompensa com itens aleatórios obtidos mediante pagamento. O ECA Digital proíbe esse tipo de mecanismo em jogos voltados para essa faixa etária ou de acesso provável por esse público.
Supervisão parental
Ferramentas de controle parental existiam em algumas plataformas, mas não seguiam padrões mínimos definidos por lei. Empresas deverão oferecer mecanismos que permitam aos responsáveis supervisionar o uso, limitar o tempo de acesso e controlar interações e downloads.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Transparência das plataformas
Informações sobre denúncias, moderação de conteúdo e riscos para menores eram divulgadas de forma limitada ou voluntária. Plataformas com grande número de usuários menores de 18 anos terão de publicar relatórios periódicos sobre denúncias, moderação e medidas de proteção.
