Todas estas iniciativas de prevención digital parten de una preocupación común: el impacto del uso intensivo de las redes sociales en el bienestar psicológico, emocional y social de niños y adolescentes.
Según un informe reciente de Qustodio, los menores pasan de media más de una hora diaria en redes sociales, siendo los españoles los que más tiempo dedican, con una media de 1 hora y 17 minutos al día. TikTok se consolida como la red preferida, con un consumo medio de 2 horas y 12 minutos diarios, impulsado por su modelo de vídeos verticales de corta duración, diseñado para maximizar el tiempo de permanencia mediante un algoritmo altamente personalizado.
Este tipo de formatos, cada vez más replicados por otras plataformas, pueden generar efectos negativos en los menores, como sobreestimulación, exceso de dopamina, atención fragmentada o alteraciones del sueño. En esta línea, Unicef alerta de que el acceso a redes sociales se produce cada vez a edades más tempranas: el 78,3% de los niños de 10 y 11 años ya tiene presencia en alguna plataforma social.
La organización también advierte de que alrededor del 6% de los adolescentes presenta un patrón de uso problemático, caracterizado por una conexión excesiva y poco controlada, dificultad para reducir el tiempo de uso y la aparición de síntomas emocionales negativos cuando no pueden acceder a las redes. A esto se suman riesgos como el sexting o el contacto con desconocidos, ya que el 5,7% de los menores de 16 años afirma haber recibido proposiciones sexuales de adultos en Internet.
Ante este contexto, casi la mitad de los padres (46%) considera que la edad mínima para acceder a redes sociales debería situarse en los 16 años, coincidiendo con el criterio adoptado por Australia.
Regulación y responsabilidad de las plataformas
Australia se ha convertido en el primer país del mundo en prohibir el uso de redes sociales a menores de 16 años, trasladando la responsabilidad del cumplimiento de la norma a las propias plataformas. La ley afecta a servicios como Instagram, TikTok, YouTube, Snapchat, X, Twitch o Reddit, que deben implementar medidas razonables de verificación de edad, bajo riesgo de sanciones económicas elevadas.
En Europa, Francia y Reino Unido avanzan en propuestas similares, mientras que España ha aprobado una ley de protección del menor en entornos digitales que eleva la edad mínima de registro a los 16 años y obliga a incorporar sistemas gratuitos de control parental en dispositivos. A nivel comunitario, el Parlamento Europeo y la Comisión Europea trabajan en iniciativas de verificación de edad y en la limitación de diseños adictivos, reforzando la aplicación de la Ley de Servicios Digitales.
En conjunto, estas medidas reflejan un cambio de paradigma: el bienestar digital de los menores se sitúa en el centro del debate, señalando tanto a las plataformas como a los reguladores como actores clave en la creación de entornos digitales más seguros, responsables y saludables.
