Desafios, pornografia e discurso de ódio: riscos diários para crianças nas redes sociais
Especialistas alertam para o aumento de riscos no ambiente digital: 56 mortes por desafios online, coleta massiva de dados e exposição precoce de crianças e adolescentes em redes sociais acendem alerta para regulação e políticas públicas

O acesso precoce e irrestrito de crianças e adolescentes às redes sociais tem facilitado a ocorrência de crimes graves que colocam em risco sua vida e bem-estar. Casos de aliciamento, desafios que induzem ao suicídio e perfis criados para explorar sexualmente alunos de escolas, além da disseminação de conteúdo misógino, racista e discursos de ódio, se tornaram parte da realidade digital no Brasil.
De acordo com o Instituto DimiCuida, que atua na prevenção de jogos de não-oxigenação e brincadeiras perigosas, pelo menos 56 mortes relacionadas a desafios virtuais ocorreram no país nos últimos dez anos.
Mesmo com restrições de idade (a maioria das plataformas proíbe contas para menores de 13 anos), uma pesquisa da empresa SuperAwesome mostrou que dados de crianças abaixo dessa faixa já foram coletados mais de 72 milhões de vezes.
Três dimensões do risco
Maria Mello, coordenadora de programas do Instituto Alana, explica que o ambiente digital no Brasil ainda é profundamente desregulado, o que permite a exploração comercial de crianças de forma alarmante.
“Hoje a gente não está falando só de publicidade, que é grave também, mas de outros riscos. O primeiro deles é de conteúdo: discursos de ódio, desinformação, incitação à violência e exposição a imagens pornográficas”, alerta a pesquisadora. “O risco de contato tem a ver com a relação com usuários mal-intencionados. E o de conduta está relacionado à própria atuação da criança ou adolescente, como o cyberbullying”.
Outro ponto sensível é o uso de dados pessoais para direcionamento de publicidade, considerando que crianças não têm desenvolvimento biopsicossocial suficiente para compreender esse tipo de exposição.
Para Mello, os riscos relacionados à violação de privacidade também têm impactos duradouros sobre a saúde física e mental dos jovens. “As plataformas são pensadas para prender a atenção, e não para atender às necessidades de crianças e adolescentes”, destaca.
Segundo pesquisa do Datafolha, encomendada pelo Instituto Alana em 2024, a maioria dos brasileiros com filhos de até 17 anos acredita que menores de 14 anos não deveriam ter celular ou tablet próprio (58%), acessar aplicativos de mensagens como o WhatsApp (58%) ou jogar videogame (61%).
Quando o assunto são redes sociais, a rejeição aumenta: 76% são contrários ao uso de plataformas como Instagram, TikTok, Kwai e Discord por menores de 14 anos. A mesma porcentagem acredita que o consumo de conteúdo em vídeo por crianças nessa faixa etária, em plataformas como YouTube, Netflix e Amazon Prime, deve ser supervisionado.
Essas percepções, no entanto, contrastam com a realidade brasileira. A idade média do primeiro acesso à internet é de apenas 6 anos, e um terço dos usuários da web no país são crianças e adolescentes.
Para especialistas, as soluções passam por políticas públicas, ações educativas e maior engajamento das famílias e das escolas. Algumas medidas já começaram a ser adotadas, como a proibição do uso de celulares em sala de aula e a capacitação de profissionais da educação para lidar com os novos desafios digitais.
STF amplia responsabilidade das plataformas
No dia 26 de junho deste ano, o Supremo Tribunal Federal (STF) decidiu ampliar as obrigações das plataformas digitais ao declarar inconstitucional parte do artigo 19 do Marco Civil da Internet, que, desde 2014, limitava a responsabilização das redes sociais a casos em que houvesse descumprimento de ordem judicial. A mudança foi aprovada após anos de obstrução no Congresso, liderada pelo lobby das grandes plataformas.
Ouvido pela Focus, o consultor do Unicef em políticas digitais Alexandre Costa Rosa, lembra que o cenário se agravou em 2023, logo após o início do terceiro mandato do presidente Lula, com a multiplicação de ataques a escolas, conteúdos de automutilação e discursos de ódio como o red pill – movimento que dissemina misoginia entre adolescentes nas redes.
“Ali ficou escancarada a gravidade de não se ter uma regulação que realmente garanta a responsabilidade das plataformas”, afirma. Na época, o então ministro da Justiça Flávio Dino editou uma portaria que autorizava a remoção de conteúdos ilegais sem a necessidade de decisão judicial, abrindo espaço para o debate que viria a chegar ao STF.
Para Rosa, no entanto, a decisão do Supremo é apenas um ponto de partida. “Não sabemos como se dará a aplicação prática das medidas pelas plataformas, que continuam fazendo lobby forte. Alegam que a decisão trará insegurança jurídica e que empresas privadas acabarão removendo conteúdos por receio de sanções. Não está claro quem será responsável por fiscalizar essa aplicação: se haverá colegiado, órgão técnico, instância autônoma.”
Ele também destaca a necessidade de ações integradas e de diretrizes internacionais. “A ONU conduziu uma ampla consulta com países, organizações e crianças para criar parâmetros globais de proteção. Esses referenciais precisam ser incorporados”, defende.
Governo cria comitê para proteção de crianças no ambiente digital
No Brasil, novas iniciativas vêm sendo articuladas entre o governo federal e o Conselho Nacional dos Direitos da Criança e do Adolescente (Conanda). No dia 15 de julho, o Ministério da Justiça e Segurança Pública participou da assinatura simbólica da portaria que institui o Comitê Intersetorial para a Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital.
A iniciativa atende à Resolução nº 257/2024 do Conanda e cria uma instância permanente de consulta, estudos e articulação.
O comitê será responsável por propor e coordenar a implementação da Política Nacional de Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital. Segundo Rosa, o Brasil já é considerado referência global em governança digital desde a aprovação do Marco Civil da Internet.
“Esses esforços estão sendo liderados por várias frentes dentro do governo, como o secretariado de Políticas Digitais, o Conanda, o Instituto de Direitos Humanos e Democracia, e vêm sendo reforçados agora pelo julgamento do STF”, afirma.
Desde dezembro de 2023, tramita na Comissão de Comunicação da Câmara dos Deputados o Projeto de Lei 2628/22, já aprovado pelo Senado. O texto propõe responsabilizar diretamente as Big Techs pela segurança de crianças e adolescentes em ambientes digitais.
O projeto é apoiado por centenas de organizações da sociedade civil ligadas à infância e à pauta digital. Inspirado em legislações de outros países, busca adaptar medidas ao contexto brasileiro, levando em conta que as práticas dessas empresas são globais. E os efeitos, semelhantes.