Artigos
A Lei Felca expõe a pergunta que o Brasil adiou por anos: quem é responsável pela infância na internet?
Na próxima semana entra em vigor no Brasil a Lei 15.211/2025, conhecida como ECA Digital ou Lei Felca, batizada por conta do influenciador Felipe Bressanim, que expôs, em agosto do ano passado, casos de produção de conteúdo sexual envolvendo menores de idade em ambientes digitais. Para muita gente, pode parecer apenas mais uma lei sobre internet. Eu vejo de outra forma: trata-se do reconhecimento de algo que já está diante de nós há anos. A infância brasileira também passou a viver no ambiente digital.
Essa mudança não aconteceu de repente. Ela foi acontecendo aos poucos, até se tornar impossível de ignorar. Hoje crianças e adolescentes conversam, jogam, aprendem, se informam e constroem relações dentro de plataformas digitais que organizam boa parte da vida social contemporânea. Nos últimos dias, duas notícias aparentemente diferentes mostram a ampliação e urgência desse debate.
A primeira envolve o WhatsApp. A empresa Meta anunciou que pretende lançar contas gerenciadas por pais para menores de 13 anos, permitindo que responsáveis decidam quem pode entrar em contato com os filhos e de quais grupos eles podem participar na plataforma. O recurso surge justamente às vésperas da entrada em vigor da nova legislação brasileira. Já a segunda envolve o TikTok. O Ministério da Justiça do Brasil pediu explicações à plataforma após a circulação de vídeos que simulavam agressões contra mulheres e viralizaram nas redes sociais.
Os dados espantam. Segundo a pesquisa TIC Kids Online 2025, 19% das crianças entre 9 a 10 anos acessam a rede social várias vezes ao dia. Essa porcentagem só cresce se comparado a idade: 33% para as crianças de 11 a 12 anos; e 55% para adolescentes entre 13 a 14 anos. E o Whatsapp não fica longe: 25% das crianças entre 9 e 10 anos acessam várias vezes ao dia; 47% das crianças entre 10 a 12 anos; 51% dos adolescentes entre 13 a 14 anos.
Sobre os dois episódios, vejo algo em comum. As plataformas digitais não são apenas meios de comunicação. Elas são sistemas complexos que organizam interações sociais, distribuem conteúdo por meio de algoritmos e capturam a atenção de milhões de pessoas todos os dias. Quando esse sistema passa a fazer parte da vida cotidiana de crianças e adolescentes, o debate deixa de ser privado. Ele passa a ser público.
É justamente nesse ponto que o ECA Digital ganha importância. A lei afirma algo que deveria ser óbvio, mas que demorou para ser reconhecido: se plataformas digitais estruturam a experiência social de milhões de jovens, elas também precisam assumir responsabilidades proporcionais. Isso significa exigir mecanismos de proteção mais robustos, sistemas de verificação etária mais confiáveis e maior responsabilidade diante de conteúdos que possam expor crianças a riscos. Mas também significa ir além da ideia de que a proteção digital depende apenas da vigilância familiar.
O anúncio do WhatsApp ilustra bem esse dilema. Ferramentas de controle parental podem ajudar, e muitos pais realmente pedem esse tipo de recurso. Mas confiar apenas nisso é transferir para as famílias um problema estrutural. Quando um ambiente digital é frequentado por milhões de crianças, ele precisa ser desenhado levando isso em conta desde o início.
O caso recente envolvendo o TikTok reforça ainda mais essa necessidade. Não estamos falando apenas de um conteúdo inadequado que escapou da moderação. Estamos falando de dinâmicas de viralização que podem amplificar discursos violentos antes mesmo que qualquer sistema de controle consiga reagir. Esse é o tipo de situação que revela a dimensão real do desafio.
Durante anos ouvimos que regular plataformas digitais poderiam prejudicar a inovação. Mas o mundo está começando a perceber que essa oposição é falsa. Sociedades que conseguem organizar seus ecossistemas digitais não fazem isso abandonando a inovação. Elas fazem criando regras claras sobre responsabilidade, transparência e proteção de usuários.
Do outro lado do mundo, no oceano Pacífico, a Austrália também entrou na conversa e estabeleceu limites claros para todo mundo em novembro de 2025. Menores de 16 anos estão proibidos de ter acesso a redes sociais e plataformas digitais, entre elas: Facebook, Instagram, Snapchat, Threads, TikTok, X, YouTube, Reddit e as plataformas de streaming Kick e Twitch. Além da terra dos cangurus, a Indonésia também anunciou, em março de 2026, que irá proibir redes sociais para menores de 16 anos. A partir do dia 28 de março, crianças e adolescentes indonésios irão ser proibidos de usar plataformas classificadas de alto risco, como o YouTube, TikTok, Facebook, Instagram, Threads, X, Bigo Live e Roblox, por conta de riscos relacionados à pornografia, cyberbullying, fraudes e dependência da internet, de acordo com o governo do país.
Aqui no Brasil, a entrada em vigor do ECA Digital é um passo importante nessa direção. Ela não resolve todos os problemas da infância conectada. Nenhuma lei resolveria. O ambiente digital muda rápido demais para soluções simples. Mas ela estabelece um princípio fundamental: a proteção da infância não termina quando a criança pega um celular.
Nos últimos anos, o próprio setor de jogos passou a discutir de forma mais profunda os impactos de seus modelos de negócio e formas de proteção mais assertivas sobre crianças e adolescentes. Como parte desse esforço, contribuímos para a produção de um estudo enviado ao senador Flávio Arns com propostas para restringir sistemas de recompensas aleatórias, as chamadas “loot boxes”, em jogos acessados por menores. No Marco Legal dos Jogos, que ajudamos a construir coletivamente, também foram incluídos dispositivos de proteção à infância em ambientes de jogos. E nos editais públicos que apoiamos para financiamento de novos títulos, defendemos critérios que evitem o desenvolvimento de experiências digitais que coloquem crianças em situação de risco.
E para que tudo isso funcione, todos têm que cumprir seus papéis. Famílias continuarão tendo um papel central. As escolas precisam trabalhar educação digital de forma mais consistente. O poder público precisa acompanhar de perto a implementação dessas novas regras. E as plataformas também precisam assumir que fazem parte desse sistema de responsabilidade.
A infância brasileira já está na internet. Isso não está mais em debate. O que está em debate agora é quem vai definir as regras desse ambiente. E eu acredito que essa resposta não pode ficar apenas nas mãos das plataformas. Ela precisa ser construída pela sociedade.
Porque proteger crianças nunca foi apenas uma escolha tecnológica.
Sempre foi uma decisão coletiva.
*Márcio Filho é presidente da Associação de Criadores de Jogos do Rio de Janeiro (ACJOGOS-RJ) e diretor executivo da GF CORP, empresa voltada para soluções gamificadas. Com uma trajetória sólida que abrange mais de duas décadas, destaca-se pelo seu engajamento social em defesa de políticas públicas voltadas para o setor de jogos, como na participação ativa na aprovação do Marco Legal dos Games. É especialista em Games e Sociedade, e atua diretamente no desenvolvimento de tecnologias enquanto potencializadoras da educação.
Mais lidas
-
1CAMPEONATO BRASILEIRO
Grêmio empata com Red Bull Bragantino e desperdiça chance de entrar no G-4
-
2ALERTA METEOROLÓGICO
Litoral de SP pode registrar em poucas horas chuva prevista para o mês inteiro
-
3DENÚNCIA NA PGR
Deputado do Novo protocola notícia-crime contra Moraes e esposa por suposto envolvimento no caso Master
-
4DESFALQUE NA DECISÃO
Cássio sofre estiramento no joelho e desfalca Cruzeiro na final do Mineiro; Gerson está liberado
-
5SAÚDE
Anvisa aprova medicamento inovador que retarda avanço do diabetes tipo 1