Lo que Facebook ha aprendido de las ‘fake news’ (y lo que aún le queda por aprender)

¿Recuperar la verdad con algoritmos?

Página 1

Después de la tormenta de la posverdad y las “fake news”, las grandes plataformas digitales han ido tomando conciencia de su impacto en el debate público democrático. Ahora la sociedad se pregunta hasta qué punto deben intervenir. No está claro dónde acaba la defensa de la libertad de expresión y dónde comienza a censura. También hay dudas sobre la capacidad de la tecnología para distinguir lo verdadero de lo falso. En cualquier caso, distintos expertos reclaman más transparencia a las redes sociales.

“Identificar la ‘verdad’ es complicado” escribió Mark Zuckerberg en plena tormenta de relaciones públicas tras la victoria de Trump. A Facebook le llovían críticas por haber distribuido rumores y falsedades cuya incidencia electoral se presumía determinante. ¿Era realmente responsable? ¿Debía haber controlado los contenidos de forma activa?

Desde el principio, parece que se formaron dos corrientes de opinión. Según algunos, como Joshua Benton del Nieman Journalism Lab de Harvard, la escala conlleva responsabilidad: “Para Facebook es muy difícil decir que no son un gatekeeper cuando están canalizando buena parte de los consumidores de noticias de todo el mundo”. Otros creen que “si no confiáramos en el Gobierno para seleccionar lo que leemos, por qué motivo íbamos a pensar que Facebook o cualquier otra compañía deberían desarrollar esta función”, en palabras de Jonathan Zittrain del Berkman Klein Center for Internet and Society, también de Harvard.

Facebook, YouTube, Twitter y Microsoft han hecho un acuerdo para compartir buenas prácticas en la lucha contra contenidos violentos y propaganda terrorista

Ahora se tiende a pensar que hubo un caso de pánico moral alrededor de las fake news y que su influencia en las motivaciones electorales de los estadounidenses fue mucho más articulada. Sin embargo, la presión fue fuerte y, de hecho, Facebook y el resto de plataformas han ido tomando medidas. Ya en diciembre de 2016 Facebook anunció –aunque el despliegue fue posterior– nuevos desarrollos para luchar contra la propagación de noticias falsas: sistema de denuncia y alertas antes de compartir contenidos dudosos. Más adelante, tanto Google como Facebook dijeron que habían incorporado el criterio de verdad a sus respectivos algoritmos. Finalmente, hace pocas semanas se formalizó una alianza de Facebook, YouTube, Twitter y Microsoft para compartir buenas prácticas en la lucha contra contenidos violentos y propaganda terrorista.

La lucha contra los bulos

En un plano más ejecutivo, también se han tomado determinaciones. Así, por ejemplo, Facebook eliminó cerca de 30.000 perfiles falsos de su plataforma durante la campaña de las presidenciales francesas. Y, con motivo de estas elecciones, tanto Google como Facebook participaron en el proyecto First Draft, una alianza de medios para combatir las fake news en unas elecciones que se consideraron cruciales. Además, esto ha ido de la mano de un esfuerzo por divulgar y explicar: Facebook lanzó una campaña para prevenir a los usuarios sobre las fake news y publicó un post sobre las dificultades que presenta la moderación de vídeos e imágenes firmado por la responsable global de las políticas de comunidad.

Seguramente la preocupación creciente de los gobiernos por las noticias falsas, el discurso del odio y la propaganda terrorista haya tenido alguna influencia en estas acciones. Es el caso del parlamento británico, que formó una comisión para estudiar el fenómeno de las fake news. O la reciente iniciativa legislativa en Alemania, donde se multará con hasta 50.000 euros a las redes sociales que tarden más de 24 horas en retirar mensajes denunciados como ofensivos.

El Parlamento británico ha formado una comisión sobre “fake news” y Alemania multará a las redes que tarden más de 24 horas en borrar mensajes denunciados como ofensivos

Pocos discutirán la importancia de limitar los mensajes dañinos. Sin embargo, sí hay distintas ópticas sobre la forma de conseguirlo. Respecto de la ley alemana, algunas voces y estudios señalan que estas medidas suponen un riesgo para la libertad de expresión. Con esta presión legal –alertan– es posible que una denuncia acabe significando la eliminación automática de contenidos sin comprobar si realmente vulneran la norma. Como se ve, el debate sigue abierto.

Facebook frente al espejo

Aún no se ha llegado a un consenso sobre cuál es el punto de equilibrio pero la reflexión ha ido avanzando. El caso de Facebook lo muestra. Desde el principio de la crisis, esta empresa formuló la pregunta sobre su responsabilidad en la salud del debate público como ¿somos o no somos un medio de comunicación? Zuckerberg pronto reconoció que “Facebook es un nuevo tipo de plataforma: no es ni una compañía tecnológica tradicional ni una empresa de medios tradicional”.

Esta misma reflexión llevó al máximo responsable de la red social a publicar una carta el pasado febrero. Allí se cuestionaba la creencia –muy arraigada en la visión de la compañía– de que un mundo conectado es necesariamente un mundo mejor. “Históricamente dar voz a todo el mundo ha sido una fuerza positiva para el discurso público porque aumenta la diversidad de las ideas que se comparten (...) pero este pasado año también ha mostrado que puede fragmentar nuestra realidad compartida”, se lee en la misiva.

“Decidir si algo es cierto o falso no es algo que debamos externalizar a una máquina” (Carlos Castillo)

En esta línea es interesante el reportaje del New York Times Magazine, que describe a Zuckerberg convencido de estar sentando las bases de la “infraestructura social” del mundo que viene. Sin embargo, como sugiere Farhad Manjoo, columnista especializado en tecnología y autor del texto, da la impresión de que Facebook se concentra principalmente en los problemas que la hiperconectividad puede resolver y tiende a relegar los que esta causa. Además, este periodista señala que a fin de cuentas Zuckerberg es un ingeniero que lidera una potente empresa global, no un presidente electo.

Más transparencia

Quizá por esto algunos reclaman de Facebook una mayor integración en el sistema democrático de las sociedades cuyo futuro dice querer construir. Según unos investigadores del proyecto de propaganda informática de la Universidad de Oxford, Facebook debería ser más transparente: en primer lugar, hacer público qué datos pueden comprar los partidos políticos para microsegmentar los receptores de sus mensajes; en segundo lugar, ofrecer más colaboración a los gobiernos a la hora de detectar intentos de interferencias políticas externas; y, finalmente, actuar respecto de las cámaras de eco polarizadas políticamente.

En el mismo sentido, estos investigadores (y otros) sostienen que la transparencia debería llegar también al ámbito académico. Se quejan de que –a diferencia de Twitter– Facebook es muy opaco, cosa que dificulta la investigación de fenómenos sociales en los que esta red social juega un papel importante.

“Facebook no tiene miedo del Gobierno estadounidense. A lo que sí tiene miedo es a perder a sus usuarios. Así que quien de verdad tiene el poder somos nosotros" (Timothy Garton Ash)

Además de las redes sociales, está el papel de los usuarios. Si parte del problema está originado por la exposición selectiva de los ciudadanos que buscan reforzar su ideología (confirmation bias), es lógico que ellos deban formar parte de la solución. Carlos Castillo, que dirige el grupo de investigación sobre ciencia de datos en Eurecat (Barcelona), explica: “Decidir si algo es cierto o falso no es algo que debamos externalizar a una máquina. Ni siquiera a otras personas. (...) Lo que sí podemos pedirle a un algoritmo es que nos ayude a evaluar la veracidad de una información, destacando los datos y demás elementos de ella que debemos contrastar para formarnos una opinión”. Jack Dorsey, fundador y CEO de Twitter, expresa una opinión parecida: “Lo que hacemos en Twitter es asegurarnos de que el público tiene más herramientas para poder diferenciar las fuentes. Ya está ocurriendo hoy. Vemos a gente que tuitea algo y los periodistas lo comprueban. Son las personas las que tienen el criterio para comprobarlas”.

Resumiendo, podemos decir que un encaje correcto de las plataformas digitales en las sociedades democráticas requeriría -por lo menos- estos elementos: algoritmos que pinchen las burbujas ideológicamente polarizadas; redes sociales transparentes que muestren la lógica de sus mecanismos tanto a académicos como al público general; y unos usuarios conscientes que su responsabilidad a la hora de definir sus puntos de vista no es transferible. ¿Cómo sucederá todo esto? El investigador británico sobre libertad de expresión Timothy Garton Ash ofrece una pista: “Facebook no tiene miedo del Gobierno estadounidense. A lo que sí tiene miedo es a perder a sus usuarios. Así que quien de verdad tiene el poder somos nosotros". Tan fácil y tan difícil: este es el reto.

@miquel_urmeneta

 


Nuestra web utiliza cookies para facilitar el servicio. Si continúa navegando entendemos que las autoriza.