La sutil tiranía de los algoritmos

Share on twitter
Share on facebook
Share on linkedin
Share on email
Share on print
Share on twitter
Share on facebook
Share on linkedin
Share on whatsapp
Share on email
Duración lectura: 7m. 25s.
algoritmos

“Los papeles de Facebook”, un serial publicado por The Wall Street Journal (WSJ), ha revelado cómo la empresa conoce los efectos perjudiciales de su actividad, y cómo ha intentado aliviarlos, con poco éxito. Lo mismo han descubierto estudios recientes sobre otras plataformas. A la vista de ellos, cabe preguntarse si las redes sociales quieren o pueden arreglar los problemas que causan.

En su serial, el WSJ publicó, entre otras cosas, datos de los daños psicológicos de Instagram (propiedad de Facebook) en chicas adolescentes, y de la fuerte polarización y aumento de bulos en Facebook que vinieron tras un cambio de algoritmo. Los documentos internos examinados por el diario muestran que la compañía era consciente de todo eso, aunque no lo reconocía claramente en público, y los técnicos idearon remedios que los directivos no autorizaron a poner en práctica por temor a perder audiencia y publicidad.

Estudios hechos por la misma Facebook detectaron que, de las jóvenes usuarias de Instagram que se sentían poco atractivas, más del 40% dijeron que su malestar comenzó a raíz de entrar en la plataforma. El 32% de las adolescentes con cuentas en Instagram dicen que se les ha agravado la insatisfacción con su aspecto físico, al compararse con otras. Sin embargo, Facebook no difundió esos datos y quitó importancia al problema. En una comparecencia ante el Congreso de EE.UU. en marzo pasado, Mark Zuckerberg, el presidente de la compañía, dijo que, según algunas investigaciones, usar las redes sociales puede ser beneficioso para la salud psíquica de los menores, y que la literatura sobre perjuicios que causa no es concluyente.

Por otro lado, en 2018 Facebook decidió hacer unas importantes modificaciones del algoritmo que selecciona los contenidos que cada usuario ve en su muro. Había observado que los vídeos y noticias de medios de comunicación ocupaban cada vez más tiempo, y provocaban polémicas con más facilidad. Para favorecer un ambiente más sano, la compañía decidió dar preferencia a las interacciones entre los miembros, aunque un efecto inmediato fuera la disminución del tiempo que pasaran en Facebook, como de hecho sucedió. Pero confiaba en que a la larga, la experiencia más satisfactoria de los usuarios resultara beneficiosa para la cuenta de resultados.

El tiro salió por la culata. Ciertamente, los usuarios participaron más con comentarios a publicaciones de otros. Pero la prioridad dada a los contenidos que más fácilmente provocan reacciones inmediatas llevó a un predominio claro de las polémicas, con hilos mucho más largos de réplicas y contrarréplicas. Partidos políticos, medios y activistas se sumaron a la tendencia. La desinformación y lo agresivo se convirtieron en lo que más a menudo se volvía viral en Facebook.

Los técnicos de Facebook detectaron también este fenómeno, y a mediados de 2020 se retocó el algoritmo para rebajar la polarización en asuntos de política y de salud, lo que resultó en menos bulos. Pero la dirección no quiso extender el cambio a todos los temas.

Problemas comunes

No sería justo señalar solo a Facebook. Este mismo año, dos experimentos han hallado problemas similares en otras plataformas.

En julio pasado, la Mozilla Foundation publicó las conclusiones de un estudio hecho con más de 30.000 voluntarios que durante 10 meses registraron su actividad en YouTube. Era una manera de averiguar cómo funciona el algoritmo de recomendaciones de la plataforma, del que la compañía, propiedad de Alphabet (la matriz de Google), no revela nada.

Los algoritmos están pensados para enganchar a los usuarios con contenidos “adictivos”

Mozilla comprobó que las recomendaciones llevan fácilmente a vídeos cada vez más extremos: se empieza, por ejemplo, con imágenes humorísticas de caídas tontas y se llega a otras de violencia brutal y realista. Los voluntarios denunciaban los vídeos objetables, y una parte de ellos fueron eliminados, aunque no sin antes sumar entre todos más de 160 millones de vistas.

A principios de septiembre, el WSJ dio a conocer los resultados de su propio experimento con TikTok. Creó un centenar largo de cuentas con robots informáticos programados para mostrar distintos intereses al navegar por la plataforma; treinta de ellas estaban atribuidas a supuestos menores de edad, de 13 a 15 años.

El algoritmo de TikTok selecciona vídeos según lo que el usuario busca y, en especial, según el tiempo que se demora en diversos tipos de contenidos. Las preferencias detectadas hacen que el algoritmo proponga cada vez más vídeos que corresponden a ellas hasta meter al usuario en un “agujero temático”, no pocas veces de sexo o drogas. En el estudio del WSJ, también las cuentas de menores eran arrastradas a contenidos de esa clase, aunque estuvieran etiquetados como “solo para adultos”.

Ni ignorancia ni mala voluntad

Si ocurren cosas así, no es porque las plataformas las ignoren, ni tampoco puede decirse que no hagan nada por poner remedio. Al igual que Facebook, como se ha visto arriba, YouTube ha tomado medidas: ha reforzado la revisión, tanto manual como automática, y purga miles de vídeos por hora. TikTok tiene un equipo de unos diez mil censores, y en el segundo semestre del año pasado retiró 89 millones de vídeos, según dice; además, está afinando la inteligencia artificial para impedir que llegue pornografía, drogas o violencia a las pantallas de los menores de edad.

A la vez, hay indicios significativos de que esos esfuerzos no son decididos del todo.

Facebook quiso rebajar polémicas con su nuevo algoritmo, pero –según la documentación examinada por el WSJ– dio un punto a cada “me gusta” y cinco a cada “me enoja”, que es más eficaz para provocar nuevas reacciones.

Según el experimento de Mozilla, es mucho más probable encontrar contenidos objetables entre las recomendaciones de YouTube que entre los resultados de una búsqueda. Y en el primer caso, el 40% no tienen relación con lo visto antes por el usuario: se supone, entonces, que el algoritmo los recomienda por ser muy populares en general.

Hay una contradicción entre los algoritmos de YouTube: uno recomienda vídeos objetables, y otro intenta localizarlos y eliminarlos

En cuanto a TikTok, incluso robots del WSJ que mostraron una variedad de intereses acabaron metidos en un “agujero temático”: da la impresión de que el sistema está pensado para enfocar a los usuarios en contenidos “adictivos”.

En palabras de Guillaume Chaslot, antiguo ingeniero de YouTube: “Todos los problemas que hemos visto en YouTube son por los algoritmos basados en la cantidad de atención dedicada por los usuarios, y en TikTok pasa exactamente lo mismo, solo que peor. El algoritmo de TikTok es capaz de aprender mucho más rápido”.

La contradicción de base

Brandi Geurkink, directora del estudio de Mozilla, pone el dedo en la llaga cuando dice que hay una “contradicción” entre los algoritmos de YouTube: uno recomienda vídeos objetables, y otro intenta localizarlos y eliminarlos.

En el fondo, la contradicción podría ser entre el negocio y el bien social. Esas redes no pretenden polarizar, ni difundir pornografía, ni hacer daño a adolescentes vulnerables… Para ellas, esos problemas son efectos secundarios que intentan evitar lo más posible. Y es claro que no se dan necesariamente ni afectan a todo el público. Sin embargo, son ya tan comprobados y previsibles, que quizá es quedarse corto llamarlos secundarios.

Hasta ahora, parece que los intentos por limitarlos chocan con el interés primario de las plataformas. Ellas viven de picar la curiosidad de la gente. ¿Qué cabría esperar: alta divulgación para amantes de los maestros del Quattrocento? De eso también hay; pero si el negocio se basa en la publicidad atraída por la difusión masiva, los nichos de intereses no bastan. Y si la difusión masiva es gratuita para el usuario, y para lograrla las redes se sirven de cantidades ingentes de materiales que no producen y por los que, en su mayor parte, no pagan, el flujo es incontrolable y la necesidad de tener contenidos virales, imperiosa.

No había tantos problemas cuando las redes sociales eran más pequeñas y lo que se hacía en ellas no era publicar o ser espectador, sino comunicarse. Esos tiempos han pasado. Pero tal vez se podría recuperar algo de lo bueno que tenían si las plataformas tendieran a servir a nichos de usuarios y a cobrarles. Eso ya ha empezado: la necesidad de distinguirse les está llevando a pagar a los buenos creadores y a ofrecer suscripciones con más ventajas y menos publicidad.

Share on twitter
Share on facebook
Share on linkedin
Share on email
Share on print
Share on twitter
Share on facebook
Share on linkedin
Share on whatsapp
Share on email

Funcionalidad exclusiva para socios de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres socio conéctate a tu cuenta para poder comentar. Si aún no eres socio, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.