Las actitudes ante la inteligencia artificial oscilan entre el optimismo que cree en el progreso inexorable y el temor a que ella –o las Big Tech que la controlan– acabe por someternos a su imperio. Las posiciones intermedias no resultan muy iluminadoras si se limitan a ser mezclas en distintas dosis del entusiasmo y el miedo. Más claridad se obtiene si el asunto se mira a través de las libertades, la ética y la ley, como se hizo en el reciente Congreso sobre Derechos Humanos organizado en Valencia por la Fundación Mainel.
Una advertencia que se recalcó varias veces en las jornadas es la de no “hipostatizar” la inteligencia artificial (IA), como si fuera un ente autónomo, que por su mismo funcionamiento derrama bienes o males sobre la humanidad. Porque –otra idea repetida– la tecnología no es neutral. Es decir –anotó Vicente Bellver Capella, catedrático de Filosofía del Derecho y Política en la Universidad de Valencia–, un destornillador tal vez lo sea, y por eso se puede decir que solo es bueno o malo el uso que se haga de él.
Pero “las tecnologías complejas no son neutras”, señaló Bellver, y la IA en concreto “responde a una concepción social y antropológica” determinada. Al aplicarse a las redes sociales y al el marketing, se basa en un conductismo que envía estímulos para obtener respuestas –ver, escuchar, comprar–: de hecho, “considera al ser humano como si fuera una máquina que manejar”.
La ética, pues, va necesariamente incorporada a la IA. Pero no es la ética de la máquina, sino la de los seres humanos que la diseñan. Fernando Llano Alonso, catedrático de Filosofía del Derecho en la Universidad de Sevilla, lo ejemplificó con el caso del vehículo sin conductor. Ante un choque inevitable, dijo, reproduce el “dilema del tranvía”, el experimento mental ideado por la filósofa británica Philippa Foot: el guardavía tiene que decidir a qué lado lo dirige con la aguja y, por tanto, quiénes serán atropellados. Análogamente, si en la IA que gobierna el coche se han inscrito principios utilitaristas, “decidirá” según un cálculo de daños humanos y materiales, propios y ajenos. Pero hay otras versiones de la ética.
La IA contrata y despide
Este dilema no es un mero experimento mental, sino que se aplica actualmente en casos reales, y más comunes que el del automóvil sin conductor. La IA ya “decide” en la contratación y despido de trabajadores, así como en la concesión de seguros o de prestaciones sociales; fija prioridades de la atención sanitaria; y, claro está, “elige” el siguiente vídeo o anuncio que veremos en el móvil. Fue ilustrativa al respecto la sesión que dieron Aída Ponce del Castillo (European Trade Union Institute) y Adrián Todolí Signes (Universidad de Valencia) sobre el uso de la IA en el ámbito laboral.
Los dos se refirieron a las predicciones sobre la desaparición de empleos a consecuencia del reemplazo de trabajadores por sistemas de IA. Todolí, por ejemplo, contó que en la Facultad de Derecho, donde es profesor, han observado que los despachos de abogados contratan menos recién graduados que antes, porque parte de las tareas que les asignaban las hace ahora la IA.
Pero ambos centraron el tiro no en la sustitución de empleados por máquinas, sino en cómo afecta la IA al trabajo humano. Aunque, dijo Todolí, la IA está suprimiendo puestos de mandos intermedios, es más importante cómo hace los cometidos que les estaban asignados. En la selección de personal, se estima que “el 72% de los curriculum vitae ya no los ven ojos humanos en la primera fase del proceso”. La IA los puntúa en función de las características que se le ha ordenado que busque en los candidatos. En las siguientes fases y, por lo menos, en último término, decide un jefe, que tendrá que deliberar largamente si los finalistas que han superado la criba automática están empatados. Pero si la IA ha dictaminado que uno tiene 90 puntos de 100 y el otro, 70, la decisión ya está tomada por la IA. La empresa que ha invertido en un modelo de IA para evaluar candidatos, naturalmente lo usará.
“La protección de los datos personales debe ser puesta al nivel de los derechos humanos” (Ignacio Gil Pechuán)
La IA no es solo un auxiliar o un automatizador de tareas, cosa que se ve más clara en la evaluación de trabajadores. Ponce del Castillo se refirió en particular a los profesores universitarios. La IA recopila continuamente datos de ellos: tiempo de trabajo en la plataforma de gestión, celeridad con que responden a los correos de los alumnos, cuánto tardan en calificar después de los exámenes, publicaciones en revistas… Esas métricas de productividad “alimentan –señaló la ponente– decisiones automatizadas” de las que depende la promoción en la escala universitaria. A juicio de la ponente, hace falta completar las leyes de IA o las normas de protección de datos personales para regular tal monitoreo continuo, que puede ocultar, tras sistemas algorítmicos opacos, violaciones de derechos laborales.
La misma opinión expresó Todolí con respecto a la legislación laboral. En caso de discriminación, el derecho vigente exige que la víctima sea consciente de ella y la denuncie. Pero, por sesgo intencionado o por error, la IA puede discriminar aplicando criterios que el afectado no conoce y basándose en datos recopilados sin que él lo sepa. “La automatización y la opacidad hacen insuficiente la ley actual”, concluyó Todolí.
El lado luminoso de la IA
Ciertamente, en el congreso se habló mucho de los riesgos de la IA. Pero no se olvidaron los beneficios. Ignacio Gil Pechuán, catedrático de Organización de Empresas en la Universidad Politécnica de Valencia, incluso rompió una lanza por las Big Tech, las sospechosas habituales en esta materia. Dijo que difunden el acceso a la tecnología, favorecen la homogeneización de sistemas y la interoperabilidad, promueven la innovación y amplían las posibilidades de participación ciudadana.

Pero esto tiene unos costes, entre los que él destacó la pérdida de privacidad. Las grandes compañías tienen recursos para ofrecer servicios gratuitos al público –lo que tiene otro coste en materia de competencia–, y esto lleva a que acumulen informaciones personales… “con la complicidad de los usuarios”, porque “compartimos demasiados datos”. Gil llegó a decir que “no seremos libres mientas los datos sean mercancía”; por eso, para él, “la protección de los datos personales debe ser puesta al nivel de los derechos humanos”.
También Rafael Amo Usanos, director de la Cátedra de Bioética en la Universidad Pontificia de Comillas, comenzó mostrando el lado luminoso de la IA. Ofreció un largo elenco de beneficios que reporta en la atención sanitaria. En el diagnóstico, gracias al análisis de imágenes y de datos clínicos, por ejemplo. En los tratamientos, porque predice la eficacia de los fármacos, incluso de forma personalizada, a partir del perfil genómico. En la prevención, por los análisis de datos epidemiológicos, la detección de epidemias reuniendo informaciones directas e indirectas, la vigilancia de la salud por medio de los aparatos llamados wearables. En la investigación biomédica acelera el descubrimiento de moléculas con potencial terapéutico. Y es una gran ayuda en la gestión hospitalaria.
“Si la regulación de la IA no se sustenta en principios éticos robustos, puede quedarse en normas para garantizar el tráfico de datos” (Vicente Bellver Capella)
El problema está en la posible falta de equidad, que se da, por ejemplo, cuando de una población hay pocos datos de salud, como ocurre en los países en desarrollo; en tal caso, la IA no sirve para compensar en parte la escasez de médicos. También, las poblaciones y enfermedades menos estudiadas pesan poco en los algoritmos, y la IA las coloca en el vagón de cola de la investigación farmacológica y de la prevención (pero esto ya ocurre desde hace mucho, precisó Amo, sin recurso a la IA).
Ética y ley
En suma, la ética aparece de continuo cuando se trata de IA. Y para que la ética se realice en la práctica, necesita la ley. Frente al tópico, mencionado más de una vez en el Congreso, de que “Estados Unidos inventa, China fabrica y Europa regula”, al que suele acompañar el corolario de que Europa estorba la innovación y se queda rezagada en la fabricación, la generalidad de los ponentes tuvo palabras elogiosas para la ley de la IA aprobada por la UE, sin dejar de reprocharle deficiencias, y sin ignorar el retraso del continente en la industria tecnológica.
Aun así, hay disposiciones generales de la ley de IA que es difícil no reconocer como razonables o necesarias, dijeron varios ponentes. Entre ellas están las que prohíben alimentar bases de datos de reconocimiento facial con imágenes disponibles en internet o en grabaciones de TV en circuito cerrado, o elaborar sistemas de puntuación social (cosa que existe en China). También parece lógico regular el uso de la IA para la obtención de créditos, para evaluar pruebas incriminatorias en los procesos penales, para la identificación de personas por parte de la policía…
Pero si la ética necesita de la ley, también vale la inversa. Como afirmó Vicente Bellver Capella, “si la regulación no se sustenta en principios éticos robustos, puede quedarse en normas para garantizar el tráfico de datos”.
En fin, ante los riesgos que presenta la IA, los congresistas no echaron toda la culpa a las Big Tech, a los poderosos con intereses políticos o económicos, o a los grandes y pequeños manipuladores. Sostuvieron que en el capitalismo de la vigilancia, bajo tan fuertes presiones, los ciudadanos seguimos teniendo libertad si no renunciamos a ella, y no estamos inermes e indefensos. Pero hace falta cobrar conciencia y actuar. La llamada a la ética ha de resonar también en cada uno.