O algoritmo da infância em risco
Mudar a lei para proteger crianças na era dos algoritmos
O vídeo que virou espelho do sistema
Na quarta-feira, 6 de agosto de 2025, Felipe Bressanim, o Felca, fez algo inédito em sua carreira. O comediante que construiu um público de 5 milhões de seguidores com humor irreverente abandonou a persona cômica. Em quase 50 minutos, dissecou em seu canal no YouTube o que chamou de “circo macabro”: a transformação sistemática de crianças em produtos digitais.
O vídeo “adultização” não apenas viralizou — dezenas de milhões de visualizações em poucos dias — como funcionou como um espelho do sistema. Felca mostrou, ao vivo, como criar uma conta nova no Instagram e, em cerca de 15 minutos de interação com conteúdo limítrofe envolvendo menores, ser bombardeado por recomendações semelhantes.
A reação foi imediata. No domingo, 10 de agosto, o presidente da Câmara dos Deputados, Hugo Motta (Republicanos-PB), anunciou que pautaria projetos sobre o tema com urgência.
Mas, afinal, o que é “adultização” — e como pais podem evitar a “amputação da infância”, expressão do pediatra Daniel Becker para descrever a perda de um período que não volta?
Compreendendo a “adultização” infantil
Adultização não é um fenômeno novo: ocorre quando crianças e adolescentes são empurrados a papéis, estéticas e responsabilidades próprias da vida adulta — de cuidar de irmãos e trabalhar cedo à erotização precoce. O que muda com as redes são a escala e a velocidade.
No ambiente digital, três forças ampliam o fenômeno: aprender a ser visto (performance diante da câmera), reforço social gamificado (curtidas, comentários, seguidores, “selos”) e atenção que vira dinheiro (monetização pauta conteúdo).
Com algoritmos que amplificam o que prende audiência, a vulnerabilidade vira produto, encurtando o tempo de brincar, deslocando a identidade para a validação externa e elevando o risco de erotização, assédio e aliciamento. (JORNAL DA USP, 2025).
O sequestro da infância: o que se perde quando a vida vira conteúdo
Infância é tempo protegido para experimentar, errar, brincar, construir autoestima intrínseca e laços de confiança. O brincar livre e as relações cuidadoras são alicerces do desenvolvimento cognitivo e socioemocional; quando a rotina vira performance pública, esse tempo é trocado por metas de engajamento e avaliação constante pela audiência. A literatura pediátrica trata o brincar como ferramenta de saúde e alerta para riscos de substituí-lo por atividades orientadas ao desempenho (AMERICAN ACADEMY OF PEDIATRICS, 2018; 2021).
Identidade performática e saúde mental
Quando a criança aprende “a ser vista” — câmera sempre ligada, postagens frequentes, leitura de reações — a construção da identidade desloca‑se de dentro para fora. Likes, comentários e seguidores funcionam como reforço social gamificado, moldando comportamento em tempo real. Em paralelo, a sexualização precoce associa‑se a pior autoestima, maior auto‑objetificação e sintomas de ansiedade e depressão, sobretudo em meninas (AMERICAN PSYCHOLOGICAL ASSOCIATION, 2007).
Ambientes digitais empurram conteúdos inadequados para a idade, normalizam padrões adultos e elevam riscos de comparação tóxica, assédio e aliciamento (grooming), especialmente quando o design privilegia tempo de tela (JORNAL DA USP, 2025; COMISSÃO EUROPEIA, 2025).
Em suma: menos brincar e menos privacidade significam menos espaço para experimentar sem julgamento e consolidar autoestima intrínseca. A longo prazo, isso aparece em marcadores de saúde mental e em escolhas de vida mediadas por “o que rende audiência” (AMERICAN ACADEMY OF PEDIATRICS, 2018).
Sharenting: afeto na era do algoritmo
Pais e responsáveis compartilham por afeto, memória e pertencimento — e, às vezes, por renda. O sharenting (exposição sistemática da vida dos filhos por adultos) cria uma pegada digital permanente que a criança não tem como consentir plenamente hoje, mas que a afetará amanhã (UNICEF, 2023a; 2023b).
Guias internacionais sugerem privacidade por padrão, revisão periódica de configurações e alfabetização digital familiar.
Por dentro da engrenagem
Para entender por que conteúdos que exploram a imagem infantil proliferam, é preciso olhar para além das motivações dos usuários e focar na arquitetura das plataformas: elas não são espaços “neutros”.
Algoritmos de recomendação identificam padrões de engajamento (tempo de visualização, cliques, compartilhamentos) e otimizam para maximizá-los. O sistema não distingue “ético” de “exploratório”; mede retenção e replica o que prende atenção, estreitando o tema e elevando a intensidade do conteúdo — o chamado efeito “toca do coelho” (rabbit hole).
Como identificar o “Efeito Toca do Coelho”
Você interage uma vez e passa a ver “mais do mesmo” com variações cada vez mais intensas.
O feed passa a ser dominado por um único tipo de conteúdo.
A sensação é de ter “caído” em um fluxo automático difícil de interromper.
O vídeo do YouTuber Felca ilustrou esse mecanismo ao mostrar, na prática, como uma conta recém-criada, após interações mínimas com conteúdo limítrofe, passa a receber recomendações semelhantes — um atalho para bolhas de consumo mais extremadas.
O ciclo é previsível: em um modelo de negócios em que a atenção dos usuários gera receita, a lógica de engajamento se torna pauta editorial, com conteúdos e formatos criados especialmente para maximizar cliques e retenção. É desta forma que algoritmos descobrem, amplificam e monetizam a vulnerabilidade infantil.
Se o risco é previsível a partir do design e dos incentivos existentes, não adianta apenas punir o criador de conteúdo. É preciso regular a própria arquitetura.
Lei que pune ou lei que previne?
A arquitetura algorítmica que transforma vulnerabilidade infantil em commodity digital não surgiu no vácuo legal — mas em uma zona cinzenta entre leis analógicas e realidades digitais.
O Estatuto da Criança e do Adolescente (ECA) estabelece princípios robustos — proteção integral, prioridade absoluta, direito à imagem e à privacidade —, mas foi pensado para um mundo em que a exploração ocorria em espaços físicos identificáveis, não transmitida por um telefone, amplificada por servidores e consumida globalmente. A geografia do dano mudou; o esforço regulatório também precisa mudar.
A resposta brasileira: avanços e limitações
Após o vídeo, a Câmara registrou uma onda de proposições: 32 projetos sobre o tema foram apresentados até 12 de agosto de 2025, incluindo o PL 3852/2025, que “institui a Lei Felca”. São iniciativas oportunas, mas ainda focadas no pós-fato (punição do conteúdo), sem atacar as causas sistêmicas — incentivos econômicos e arquitetura algorítmica.
No Senado, o PL 2.628/2022 (Sen. Alessandro Vieira) avançou com controle parental obrigatório, mecanismos de denúncia, verificação de idade e multas de até 10% do faturamento no Brasil — um passo importante de responsabilização.
O modelo europeu: prevenção por design
Enquanto o Brasil discute punições, a União Europeia implementa soluções estruturais via Digital Services Act (DSA), em vigor desde 2023. As plataformas são obrigadas, por exemplo, a:
Proibir publicidade direcionada a menores com base em seus dados.
Oferecer um feed não personalizado como alternativa ao fluxo algorítmico.
Avaliar anualmente os riscos sistêmicos que seus serviços criam, incluindo para a saúde mental de crianças.
Garantir mais transparência sobre o funcionamento de seus sistemas de recomendação.
Tudo isso sob pena de multas de até 6% do faturamento global. Como resultado prático, contas de menores de 16 anos em plataformas como o TikTok e YouTube já são, por padrão, privadas na UE.
Em julho de 2025, a Comissão Europeia publicou diretrizes específicas para proteção de menores, estabelecendo medidas como desabilitar recursos viciantes ("streaks", notificações de leitura) e dar aos menores mais controle sobre recomendações de conteúdo (COMISSÃO EUROPEIA, 2025).
A diferença entre os modelos brasileiro e europeu revela filosofias opostas. Enquanto focamos em punir indivíduos após o dano, a Europa procura regular a máquina antes que o dano ocorra.
O caminho necessário
O projeto do Senado é um avanço, mas a comparação com a UE aponta três frentes de aprimoramento:
Responsabilidade algorítmica. Auditorias obrigatórias e transparência sobre critérios de amplificação (nos moldes do DSA).
Desincentivo econômico. Restringir monetização envolvendo menores e vetar publicidade comportamental para menores de 18.
Proteção por design. Privacidade e segurança por padrão para contas juvenis, não como opção — com fiscalização técnica capaz de agir na velocidade digital.
O tempo urge. Enquanto debatemos, milhões de crianças brasileiras estão online — expostas a riscos previsíveis e evitáveis. A escolha é nossa: seguir com band-aids legislativos ou construir proteção sistêmica que previna a próxima forma de exploração — aquela que ainda nem imaginamos.
Onde denunciar e buscar ajuda
Disque 100 – Direitos Humanos: canal 24h, gratuito e anônimo, para denúncias de exploração/abuso de crianças e adolescentes.
SaferNet Brasil – Canal de Denúncias: denuncie perfis, imagens ou vídeos ilegais/abusivos (inclusive exploração infantil): https://denuncie.org.br/
SaferNet – Helpline (Canal de Ajuda): orientação gratuita e confidencial para famílias, educadores e vítimas: https://new.safernet.org.br/helpline
Referências
AMERICAN ACADEMY OF PEDIATRICS. The Power of Play: A Pediatric Role in Enhancing Development in Young Children. Pediatrics, 2018. Disponível em: https://europepmc.org/article/pmc/6118820. Acesso em: 12 ago. 2025.
AMERICAN ACADEMY OF PEDIATRICS. Where We Stand: Screen Time. HealthyChildren.org, 2023. Disponível em: https://www.healthychildren.org/English/family-life/Media/Pages/Where-We-Stand-TV-Viewing-Time.aspx. Acesso em: 12 ago. 2025.
AMERICAN PSYCHOLOGICAL ASSOCIATION. Report of the APA Task Force on the Sexualization of Girls. Washington, DC: APA, 2007. Disponível em: https://www.apa.org/pi/women/programs/girls/report-full.pdf. Acesso em: 12 ago. 2025.
BECKER, Daniel. Amputação da infância: ganhamos 20 anos de vida, mas perdemos 12 de infância.Instagram, 2025. Acesso em: 12 ago. 2025.
BRASIL. Lei nº 8.069, de 13 de julho de 1990. Dispõe sobre o Estatuto da Criança e do Adolescente. Brasília, 1990. Disponível em: https://www2.camara.leg.br/legin/fed/lei/1990/lei-8069-13-julho-1990-372211-publicacaooriginal-1-pl.html. Acesso em: 12 ago. 2025.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, 2018. Disponível em: https://www2.camara.leg.br/legin/fed/lei/2018/lei-13709-14-agosto-2018-787077-publicacaooriginal-156212-pl.html. Acesso em: 12 ago. 2025.
CÂMARA DOS DEPUTADOS (Brasil). Denúncia sobre uso indevido de imagens de crianças motiva 32 projetos na Câmara dos Deputados. 12 ago. 2025. Disponível em: https://www.camara.leg.br/noticias/1114700-denuncia-sobre-uso-indevido-de-imagens-de-criancas-motiva-32-projetos-na-camara-dos-deputados/. Acesso em: 12 ago. 2025.
CNN BRASIL. Entenda projeto mais avançado no Congresso contra adultização nas redes. 2025. Disponível em: https://www.cnnbrasil.com.br/politica/entenda-projeto-mais-avancado-no-congresso-contra-adultizacao-nas-redes/. Acesso em: 12 ago. 2025.
COMISSÃO EUROPEIA. The impact of the Digital Services Act on digital platforms. Shaping Europe’s Digital Future, 2024. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/dsa-impact-platforms. Acesso em: 12 ago. 2025.
COMISSÃO EUROPEIA. Commission publishes guidelines on the protection of minors. Shaping Europe’s Digital Future, 14 jul. 2025. Disponível em: https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors. Acesso em: 12 ago. 2025.
JORNAL DA USP. Redes sociais estimulam comportamentos inadequados para a idade das crianças. 2025. Disponível em: https://jornal.usp.br/campus-ribeirao-preto/redes-sociais-estimulam-comportamentos-inadequados-para-a-idade-das-criancas/. Acesso em: 12 ago. 2025.
PODER360. “Adultização”: Câmara discutirá crianças em redes, diz Motta. 11 ago. 2025. Disponível em: https://www.poder360.com.br/poder-congresso/adultizacao-camara-discutira-criancas-em-redes-diz-motta/. Acesso em: 12 ago. 2025.
SENADO FEDERAL. Vai à Câmara proteção de crianças e adolescentes em ambientes digitais. Senado Notícias, 27 nov. 2024. Disponível em: https://www12.senado.leg.br/noticias/materias/2024/11/27/vai-a-camara-protecao-de-criancas-e-adolescentes-em-ambientes-digitais. Acesso em: 12 ago. 2025.
SENADO FEDERAL. CCJ aprova projeto para proteger crianças e adolescentes em ambientes digitais.Senado Notícias, 21 fev. 2024. Disponível em: https://www12.senado.leg.br/noticias/materias/2024/02/21/ccj-aprova-projeto-para-proteger-criancas-e-adolescentes-em-ambientes-digitais. Acesso em: 12 ago. 2025.
SENADO FEDERAL. Proteção de crianças e adolescentes em ambientes digitais vai à Câmara. Rádio Senado, 27 nov. 2024. Disponível em: https://www12.senado.leg.br/radio/1/noticia/2024/11/27/protecao-de-criancas-e-adolescentes-em-ambientes-digitais-vai-a-camara. Acesso em: 12 ago. 2025.
TIKTOK NEWSROOM EU. An update on fulfilling our commitments under the Digital Services Act. 4 ago. 2023. Disponível em: https://newsroom.tiktok.com/en-eu/fulfilling-commitments-dsa-update. Acesso em: 12 ago. 2025.
UNICEF. Online Privacy Checklist for Parents. 2023. Disponível em: https://www.unicef.org/parenting/digital/online-privacy-checklist-parents. Acesso em: 12 ago. 2025.
UNICEF. How to Keep Your Child Safe Online. 2023. Disponível em: https://www.unicef.org/parenting/talking-to-your-kids-about-online-safety. Acesso em: 12 ago. 2025.
VIEIRA, Alessandro. Projeto de Alessandro que protege crianças em ambiente digital é aprovado no Senado.Portal do Senador Alessandro Vieira, 29 nov. 2024. Disponível em: https://senadoralessandrovieira.com.br/projeto-de-alessandro-que-protege-criancas-em-ambiente-digital-e-aprovado-no-senado/. Acesso em: 12 ago. 2025.