As redes sociais entraram nas nossas vidas como quem oferece um presente: gratuitas, divertidas, cheias de promessas de conexão. Mas o produto sempre fomos nós — e, pior ainda, nossas crianças.
O vídeo recente do YouTuber brasileiro Felca expôs uma ferida que muitos preferiam ignorar: a exploração da infância nas redes sociais. Ele mostrou que, ao simplesmente “curtir” fotografias de crianças em contextos aparentemente inocentes, os algoritmos passam a recomendar conteúdos cada vez mais sexualizados. Isso cria um funil que facilita que pedófilos se encontrem, troquem códigos e migrem para canais como o Telegram, onde circula pornografia infantil.
O alcance é ilimitado, o monitoramento quase impossível, e os algoritmos trabalham a favor da exploração. Redes que prometiam diversão funcionam hoje como ponte para o crime.
Não é uma falha isolada: é um modelo de negócio que lucra com exploração. Em 2023, foram registados mais de 36 milhões de casos suspeitos de abuso sexual infantil online. Crianças cada vez mais novas são expostas a transmissões ao vivo, vídeos manipulados por inteligência artificial e imagens que nunca desaparecem da internet. Não são estatísticas: são vidas vulneráveis.
A União Europeia reagiu, ainda que lentamente, com legislação que prevê avaliação de riscos, mecanismos de denúncia, controlos parentais, verificação de idade e regras específicas para conteúdos dirigidos a menores. Em junho de 2025, o Parlamento avançou com uma proposta que criminaliza o uso de inteligência artificial para abuso sexual infantil e a divulgação de material de exploração. Estão previstas operações encobertas que utilizam “honeypots” digitais — perfis falsos criados pelas autoridades para atrair e identificar agressores. Há também em discussão um Centro Europeu de Proteção da Criança, oferecendo apoio direto às vítimas.
A infância não pode ser reduzida a combustível para algoritmos. Ignorar essa realidade é consentir que uma lógica invisível decida o que é “normal”, o que é aceitável e o que se torna um ambiente perfeito para pedófilos trocarem códigos e compartilharem material criminoso.
A alternativa existe: uma sociedade digital regulada, em que a proteção da infância é prioridade e a comunicação é direito, não produto. Coragem política, pressão social e visão de futuro não são opcionais — são essenciais para impedir que algoritmos transformem crianças em alvo e normalizem a exploração.
____________________
Os artigos de opinião publicados no NOTÍCIAS DE FAMALICÃO são de exclusiva responsabilidade dos seus autores e não refletem necessariamente a opinião do jornal.
Comentários