La Comisión Europea da un paso más en la protección de los menores en internet

publicado
DURACIÓN LECTURA: 6min.
Aleksandra Suzi / Shutterstock

Desde que, a finales de 2022, la Comisión Europea (CE) aprobó la Ley de Servicios Digitales (DSA, por sus siglas en inglés), la percepción de los riesgos que conlleva el uso de internet –y particularmente, de las redes sociales– para los menores no ha dejado de crecer. Varios países han anunciado y puesto en marcha distintos mecanismos para mitigar, en lo posible, esas amenazas.

Francia ha sido uno de los más activos. Ha tomado algunas iniciativas a nivel interno, como la aprobación por parte del organismo nacional para la regulación del sector audiovisual y digital (ARCOM) de una norma que obliga a algunas webs de contenido adulto a verificar la edad de los usuarios, en vigor desde comienzos de este año. Y el propio presidente ha presionado a los organismos europeos para legislar sobre el tema: recientemente se comprometió a prohibir “en unos meses” el acceso a las redes sociales a los menores de 15 años si antes no se hacía a nivel de la UE.

No se trata solo de Francia. Ante la creciente percepción social de los riesgos que entrañan estas plataformas, otros países han coincidido en señalar que el texto de la DSA no es lo suficientemente concreto y coercitivo. Ahora la CE ha dado un paso más. El pasado 15 de julio lanzó dos novedades: un documento con directrices para las “plataformas online” –un eufemismo que en realidad sirve para designar específicamente a las redes sociales, como se puede deducir del texto– y el modelo piloto de una aplicación que sirve para verificar la edad de acceso, y que ya están probando los cinco países que más interés han mostrado en este punto hasta el momento: la propia Francia, España, Dinamarca, Grecia e Italia.

Mayoría de edad digital

Este grupo de países ha formulado la propuesta de que se consensúe, a nivel europeo, una mayoría de edad digital –que no tendría por qué coincidir con la “analógica”– para el uso de determinadas plataformas. No obstante, la CE ha respondido que esto es competencia de cada Estado. Lo único que estipula la DSA es que, en caso de que este límite exista, debe estar entre los 13 y los 16 años.

Con todo, las nuevas directrices de la CE para las redes sociales son más concretas y verificables que lo expuesto en la DSA (el problema, muy importante, es que por ahora se trata de meras recomendaciones). El texto pide a estas plataformas que, a fin de evitar el abuso a menores, se faciliten los mecanismos para que estos puedan bloquear o silenciar a otros usuarios, y que nunca puedan ser incluidos en un grupo sin su consentimiento explícito. También reclama a estas compañías que las cuentas de los menores se configuren por defecto como privadas, y que el material subido a ellas no pueda ser descargado ni captado a través de pantallazos.

Las recomendaciones pretenden mejorar la seguridad de los menores en las redes sociales, mientras que la herramienta de verificación de edad quiere evitar su acceso a contenido inapropiado, pero protegiendo su privacidad

Otras de las recomendaciones, más centradas en evitar el uso adictivo que en alejar contenidos –o usuarios– peligrosos, son eliminar algunas funciones que pueden generar “ansiedad”, como por ejemplo el tick que confirma que un mensaje ha sido visto por otra persona, y dar prioridad, al elaborar el feed de recomendaciones de cada usuario, a las respuestas directas de este en vez de a los algoritmos; de modo que, por ejemplo, a una persona no se le vuelva a recomendar más un contenido que previamente ha marcado como inconveniente o desagradable.

Según la DSA, la CE ya tiene potestad para acceder a los algoritmos de las redes sociales, precisamente para vigilar que no favorezcan un uso adictivo. Sin embargo, desde varias instancias se ha criticado que ese reglamento deja el control efectivo en manos de la buena voluntad de las plataformas.

“Doble anonimato” para impedir el acceso a contenido inapropiado

La otra medida anunciada por la CE, la del prototipo de aplicación para verificar la edad, puede tener consecuencias más reales y más a corto plazo. Aunque no se dan demasiados detalles, el texto del comunicado sí señala que el mecanismo utilizará un protocolo de “doble anonimato”: al ir a acceder al sitio web en cuestión, este requerirá al usuario que garantice su mayoría de edad; un ente público recibe la petición pero no sabe de dónde procede, comprueba si la persona tiene efectivamente más de 18 años –por ejemplo, cotejando su documento de identidad– y emite el dictamen positivo o negativo, pero sin revelar más datos; otra entidad “entrega” ese plácet al sitio web.

Este método, que ya está en vigor en Francia (aunque su aplicación está pendiente de una demanda presentada por varios sitios webs pornográficos), permite salvar la tensión existente entre garantizar que los menores no accedan a contenidos inapropiados y, a la vez, proteger su privacidad; una tensión que ya se ha llevado por delante algunas iniciativas de control de la edad planteadas en otros países, por ejemplo en Reino Unido.

Una vez los cinco países antes mencionados prueben el prototipo de la CE, que también ha sido puesto a disposición de empresas para que lo puedan ir testeando, cada Estado podrá adaptarlo a sus necesidades y prioridades, y extenderlo a otros usos (por ejemplo, para comprar alcohol). En un horizonte no muy lejano, esta herramienta podría integrarse en el “carnet de identidad digital” que la UE quiere tener listo para finales de 2026. Así pues, sería un organismo comunitario el encargado de recibir la petición de los sitios web y enviar la autorización basándose en este documento.

Con la zanahoria… y con el palo

Mientras la CE emplea una estrategia que podríamos llamar “de cooperación” con las redes sociales –por ejemplo, mediante las recomendaciones emitidas recientemente– y con las webs de contenido para adultos –permitiéndoles que testeen la nueva aplicación–, no por ello deja de utilizar también la amenaza de las sanciones.

En mayo del año pasado, el organismo anunció la apertura de una investigación a Instagram y Facebook (ambas, propiedad de Meta) por fomentar conductas adictivas con sus algoritmos y herramientas, y un año después amenazó con multar a TikTok si no mejoraba la transparencia en cuanto al manejo de la publicidad en la plataforma. Por su parte, hace menos de dos meses también abrió una investigación contra cuatro webs pornográficas, a las que acusa de no estar poniendo los medios adecuados para verificar la edad de sus usuarios. Si se demuestra que es así, estos cuatro sitios podrían enfrentarse a multas de hasta un 6% de su facturación, o incluso perder su licencia para operar en la UE.

Está por ver si esta mezcla de “palo y zanahoria” sirve para avanzar en la protección online de los menores, una necesidad cada vez más urgente y sobre la que existe un gran consenso social.

Contenido exclusivo para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Funcionalidad exclusiva para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta para poder comentar. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.