Las redes sociales se han convertido en parte esencial de la vida cotidiana, incluso para los niños. Aunque ofrecen oportunidades educativas y creativas, también exponen a los más pequeños a contenidos e interacciones potencialmente peligrosas. En respuesta, han surgido versiones infantiles de aplicaciones populares como TikTok Kids y YouTube Kids, prometiendo una mayor seguridad. ¿Pero qué tan efectivas son realmente estas herramientas y qué retos persisten?
YouTube Kids y TikTok Kids presentan experiencias adaptadas a menores de 13 años. YouTube Kids permite a los padres crear perfiles según la edad del niño (preescolar, primaria, etc.) y aplicar filtros adecuados. El contenido es seleccionado por algoritmos automáticos, reforzados con revisiones humanas para evitar la difusión de materiales inapropiados.
TikTok Kids, una versión limitada disponible en ciertas regiones (como Douyin en China para menores de 14), establece límites de uso y bloquea el contenido no apto. Ofrece una experiencia sin publicidad y restringe funciones sociales como comentarios o mensajes directos, con el fin de prevenir el acoso o el contacto no deseado.
Ambas aplicaciones incluyen paneles de control parental que permiten revisar el historial de visualización, limitar el tiempo de uso o desactivar la función de búsqueda. Esto otorga a los padres un rol activo en la supervisión del contenido que consumen sus hijos.
A pesar de las funciones prometidas, su efectividad varía. Evaluaciones recientes de entidades como Common Sense Media o TechCrunch muestran que YouTube Kids todavía permite la aparición de vídeos con temáticas dudosas, disfrazadas como contenido infantil.
TikTok Kids ha recibido elogios por su sistema de límite de uso y ausencia de monetización. Sin embargo, la falta de disponibilidad global y la variabilidad entre regiones siguen siendo problemas importantes. En muchos países aún no existe una versión “Kids” oficial de la aplicación.
En junio de 2025, la Oficina del Comisionado de Información del Reino Unido confirmó nuevas normativas para las plataformas dirigidas a menores, exigiendo transparencia en el uso de datos y funciones de seguridad claras, normas que afectarán a TikTok Kids y YouTube Kids a escala internacional.
La inteligencia artificial (IA) es esencial para determinar qué contenido ven los menores. YouTube Kids emplea sistemas de aprendizaje automático para filtrar material inapropiado, aunque no siempre detecta vídeos engañosos que utilizan miniaturas o audio manipulados.
TikTok Kids utiliza IA similar combinada con moderación manual en regiones donde la ley así lo exige. El éxito de estos sistemas depende de su entrenamiento constante y actualización basada en nuevas amenazas y contenidos emergentes.
En 2025, la tecnología ha mejorado la precisión de los filtros, pero los expertos reconocen que no existe una solución infalible. En situaciones ambiguas o de humor sutil, la intervención humana sigue siendo esencial.
El mayor problema de la IA sigue siendo la falta de comprensión del contexto. Algunos vídeos que parecen educativos introducen temas inapropiados a través de imágenes ocultas o dobles sentidos, difíciles de detectar sin revisión humana especializada.
Además, proliferan aplicaciones falsas que imitan la apariencia de YouTube Kids o TikTok Kids, especialmente en tiendas de apps de terceros. Estas aplicaciones pueden incluir malware o contenido inapropiado, representando un riesgo real para las familias.
Google y ByteDance han intensificado las medidas de verificación de apps, colaborando con tiendas oficiales para eliminar clones peligrosos. Aun así, la vigilancia parental sigue siendo crucial.
Aunque las empresas ofrecen herramientas, la seguridad digital depende en última instancia de los adultos responsables. Campañas educativas como “Sé genial en Internet” de Google o las guías de TikTok sobre emparejamiento familiar promueven la alfabetización digital entre padres y tutores.
Según encuestas recientes en Reino Unido y la UE (primavera de 2025), el 60% de los padres ya utiliza controles parentales, frente al 35% en 2022. Este avance muestra mayor concienciación, pero también la necesidad de herramientas accesibles y multilingües.
Hoy en día, las conversaciones sobre seguridad en línea son tan importantes como las advertencias sobre peligros en el mundo real. Los niños deben aprender a reconocer señales de alerta y a desenvolverse con criterio en entornos digitales.
Un debate emergente es cómo equilibrar la seguridad con la autonomía del niño. Un control excesivo podría motivar a los menores a buscar contenidos no supervisados fuera de estas apps.
Los expertos sugieren un enfoque escalonado: dar más libertad a medida que el niño demuestra responsabilidad. Esta estrategia está respaldada por psicólogos infantiles que ven el diálogo como una herramienta más efectiva que la prohibición.
Formar una generación digital resiliente requerirá el esfuerzo conjunto de empresas tecnológicas, familias, educadores y legisladores. Las herramientas están disponibles, pero su efectividad depende de su implementación adecuada y colaborativa.