As redes sociais tornaram-se parte integrante da vida quotidiana — até mesmo para crianças. Embora ofereçam oportunidades educativas e criativas, também expõem os jovens utilizadores a conteúdos e interações que podem representar riscos graves. Em resposta, versões específicas para crianças de aplicações populares, como o TikTok Kids e o YouTube Kids, foram lançadas com a promessa de maior segurança. Mas quão eficazes são estes serviços na proteção dos jovens utilizadores, e quais os desafios que permanecem?
O YouTube Kids e o TikTok Kids oferecem uma experiência personalizada para crianças com menos de 13 anos. O YouTube Kids permite que os pais configurem perfis com base na faixa etária da criança, desde a pré-escola até à pré-adolescência, aplicando filtros adequados. O conteúdo é selecionado através de algoritmos automatizados, complementados por revisões humanas para reduzir o risco de material inadequado.
O TikTok Kids, uma versão do TikTok disponível em algumas regiões sob diferentes nomes (como o Douyin para menores de 14 anos na China), implementa limites de tempo de ecrã e restringe o acesso a conteúdos impróprios. A aplicação oferece uma experiência sem anúncios e limita funcionalidades sociais como comentários e mensagens diretas, frequentemente associadas ao cyberbullying e à exploração online.
Ambas as plataformas oferecem painéis de controlo parental, permitindo aos adultos visualizar o histórico de visualizações, limitar o tempo de ecrã e até desativar a função de pesquisa. Este nível de supervisão dá aos responsáveis um papel ativo na gestão do que as crianças consomem online.
Apesar dos controlos parentais robustos, o desempenho na prática varia. Em avaliações recentes de entidades como a Common Sense Media e o TechCrunch, o YouTube Kids permitiu ocasionalmente a passagem de conteúdos borderline. Isto inclui vídeos que aparentam ser infantis, mas que contêm temas perturbadores ou promocionais escondidos em animações.
O TikTok Kids, onde está disponível, tem sido elogiado pelo corte rígido de tempo de ecrã e ausência de elementos de monetização. No entanto, persistem preocupações quanto à disponibilidade global e à consistência das funcionalidades de segurança entre diferentes regiões. Em muitos países ainda não existe uma versão dedicada do TikTok para crianças, expondo-as ao feed algorítmico da aplicação normal.
Em junho de 2025, o Gabinete do Comissário de Informação do Reino Unido confirmou que as aplicações direcionadas a menores serão mais regulamentadas pelo Código das Crianças, tornando obrigatória a transparência no uso de dados e funcionalidades de segurança. Espera-se que esta regulamentação influencie padrões globais, especialmente em aplicações como o YouTube Kids e o TikTok Kids.
A Inteligência Artificial desempenha um papel central na gestão do que as crianças veem. O YouTube Kids usa aprendizagem automática para identificar vídeos inadequados, mas o sistema não é infalível. Vídeos problemáticos com miniaturas ou áudio enganadores conseguem, por vezes, escapar à deteção. O TikTok Kids utiliza filtros de IA semelhantes, mas associa-os a revisões manuais nos países onde a lei o exige.
A eficácia da moderação por IA depende da entrada contínua de dados e do treino constante dos algoritmos. As plataformas precisam de conjuntos de dados extensos, incluindo exemplos de conteúdos inseguros, para ensinar os sistemas a bloqueá-los. São necessárias atualizações constantes e supervisão rigorosa para acompanhar as novas estratégias dos criadores de conteúdos maliciosos.
Em 2025, os avanços nas ferramentas de segurança baseadas em IA melhoraram a precisão dos filtros, mas especialistas reconhecem que nenhuma solução é perfeita. Confiar unicamente na moderação automática ainda deixa lacunas, sobretudo em casos subtis como humor ambíguo ou sátiras.
Uma das maiores limitações da moderação por IA é a dificuldade em compreender o contexto. Por exemplo, um vídeo que parece educativo pode introduzir discretamente temas impróprios através de imagens ou diálogos de fundo. Sem revisores humanos com formação em psicologia infantil e literacia digital, estas nuances podem passar despercebidas.
Além disso, aplicações falsas ou clonadas que imitam a aparência do YouTube Kids ou do TikTok Kids continuam a circular em lojas de aplicações alternativas, especialmente no Android. Estas aplicações frequentemente contêm malware ou apresentam conteúdo impróprio, representando uma ameaça para pais e crianças desavisadas.
Para combater esta ameaça, tanto a Google como a ByteDance reforçaram a verificação de aplicações e colaboram com lojas de apps para remover versões fraudulentas rapidamente. No entanto, continua a ser essencial a vigilância parental constante.
Embora as empresas forneçam ferramentas, a responsabilidade pela segurança digital estende-se também aos pais e tutores. Campanhas educativas — como o “Seja Incrível na Internet”, da Google, e os guias de emparelhamento familiar do TikTok — procuram sensibilizar os adultos para as boas práticas de literacia digital e comportamento online.
Inquéritos realizados no Reino Unido e na UE na primavera de 2025 mostram uma tendência positiva: mais de 60% dos pais com filhos menores de 13 anos implementaram controlos parentais, em comparação com apenas 35% em 2022. Esta mudança reflete uma crescente consciência, mas também destaca a necessidade de ferramentas mais acessíveis e com suporte multilíngue.
Em muitas casas, as conversas sobre segurança na internet tornaram-se tão essenciais quanto as sobre perigos físicos. As crianças aprendem não só a navegar nas aplicações, mas também a reconhecer sinais de alerta — como contactos de desconhecidos ou conteúdos manipuladores disfarçados de publicidade.
Um debate emergente é como equilibrar a proteção das crianças com a necessidade de explorarem e aprenderem de forma autónoma. A sobre-regulamentação pode levar as crianças a procurarem conteúdos não monitorizados em espaços não regulados.
Especialistas recomendam níveis de acesso graduais, permitindo maior liberdade a crianças mais velhas, mas sempre com supervisão orientada. Esta abordagem é defendida por psicólogos infantis e defensores da literacia digital, que argumentam que construir confiança é mais eficaz do que impor restrições rígidas.
A longo prazo, formar uma geração digital resiliente requer colaboração entre empresas tecnológicas, educadores, reguladores e famílias. As ferramentas existem — mas a sua eficácia depende de compreensão, diálogo e responsabilidade partilhada.