La Comisión Europea propone regulaciones sobre cómo y para qué utilizar la Inteligencia Artificial (IA). Unas normas que pretenden fomentar la confianza e inversión en la IA, así como garantizar que trabaje en favor del ser humano y la sociedad, y no en su contra.
Los sistemas de inteligencia artificial “comprenden” y dan forma a gran parte de lo que sucede en el día a día de las personas. Las aplicaciones de inteligencia artificial “hablan” y responden preguntas cuando se pronuncia el nombre de un asistente de voz digital, y pueden llegar a cuidar de un bebé mediante los sonidos respiratorios que emite. Manejan los chatbots de atención al cliente de empresas, ayudan a diagnosticar el cáncer y otras afecciones médicas como, por ejemplo, su novedosa aplicación para detectar el covid-19 en enfermos asintomáticos mediante una grabación en audio de la tos. Examinan el uso de tarjetas de crédito en busca de posibles signos de fraude y permiten determinar quién podría presentar un riesgo crediticio. Actualizan la información del tráfico para acortar los tiempos de viaje y son el sistema operativo de los vehículos sin conductor.
Reconocen las caras de las personas, traducen idiomas y sugieren cómo completar las oraciones o las consultas de búsqueda. Pueden incluso “leer” las emociones de las caras, un aspecto reservado hasta ahora a los seres vivos. Redactan noticias, pintan al estilo de grandes artistas, como Vincent Van Gogh o Vermeer, y crean música que suena similar a los Beatles y Bach. También determinan el material que se ofrece en las recomendaciones de videos en YouTube y las noticias que aparecen en el feed de Facebook. Todo, dependiendo de qué se le enseñe.
La IA, sobre todo el machine learning y el deep learning, actúa y se desarrolla autónomamente según los datos con los que se le “nutre”. Obtiene información a partir de los datos que se le administran e infiere conclusiones para realizar predicciones, y modelar su futura actuación. Es en el input de contenido y en el output de conclusiones y predicciones donde existe el peligro de caer en sesgos y riesgos para la vida humana, y donde sigue siendo la responsabilidad de las personas cuestionarse si el resultado es éticamente correcto o no.
Cómo y para qué: una regulación europea
La cuestión de cómo librar a los algoritmos de tales sesgos y peligros, y de si su uso en algunas áreas –debido a la falta de transparencia– es fundamentalmente problemático e inadecuado, debe ser abordado conjuntamente por informáticos, juristas y filósofos, dice a Aceprensa Dietmer Hübner, profesor de filosofía en la Universidad de Hanover, especializado en ética aplicada.
En consonancia con ello, en abril de este año, la Comisión Europea publicó un texto –elaborado por un grupo de expertos interdisciplinares– en el que propuso regulaciones sobre la inteligencia artificial y su desarrollo, “para garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, éticos e imparciales y estén bajo control humano”. Dada la creciente aparición de pautas éticas para la IA y ante la falta de una legislación formal, la Comisión Europea formó el grupo para desarrollar propuestas y recolectar aportaciones de sectores interesados.
La Unión Europea tiene como objetivo fomentar la confianza en la inteligencia artificial
El resultado es un texto de más de cien páginas, que pretende, a partir de un enfoque europeo y la actualización del plan coordinado sobre la IA, garantizar “la seguridad y los derechos fundamentales de las personas y las empresas, reforzando al mismo tiempo la inversión y la innovación en todos los países de la UE”.
Mediante este primer marco jurídico, la Comisión Europea tiene como objetivo fomentar la confianza en la inteligencia artificial. Según dice en la página web, “la Comisión propone nuevas normas para garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, éticos e imparciales y estén bajo control humano”.
Según Hübner, los principales problemas en el campo de la IA y la ética aplicada giran en torno a la combinación entre los pronósticos algorítmicos y las decisiones humanas. “Los algoritmos proporcionan clasificaciones estadísticas, predicciones, recomendaciones para la acción etc. Y, con base en estos datos, las personas e instituciones toman decisiones como, por ejemplo, seleccionar un solicitante de empleo u otorgar un crédito. Sin embargo, los pronósticos algorítmicos dependen, de manera muy sensible, del material de datos en el que han sido entrenados y, por ello, pueden mostrar unilateralidad, estereotipos y contener discriminaciones que se han dado en la sociedad durante años”.
De “alto riesgo”
Por ello, la Comisión Europea pone, mediante una clasificación conforme a una escala de riesgo –inaceptable, alto, reducido y mínimo– el principal enfoque de estas regulaciones en las funciones de inteligencia artificial “de alto riesgo”. En este grupo se encuentran los transportes autónomos, la calificación de exámenes, la clasificación de currículos, el reconocimiento facial o la concesión de préstamos. Amazon, por ejemplo, abandonó a finales de 2018 su programa de contratación por IA debido a su prejuicio contra las mujeres. El algoritmo se entrenó sobre los currículums de los candidatos a puestos de trabajo de los diez años anteriores y, debido a que la mayoría de los solicitantes eran hombres, desarrolló un sesgo para preferir a los hombres y penalizar las características asociadas con las mujeres.
Otro ejemplo del posible efecto discriminatorio de la inteligencia artificial queda reflejado en el documental Coded Bias de Netflix. En él, se muestra el sesgo racial en algunos algoritmos de reconocimiento facial a raíz de que la investigadora del MIT Media Lab, Joy Buolamwini, descubriese fallos en la tecnología. La cara de Buolamwini, de rasgos afroamericanos, no era reconocida como una cara humana por el programa de reconocimiento facial, pero sí que era reconocida cuando se ponía una careta blanca. Según Buolamwini, esto probablemente se debiese a los datos con los que se había entrenado al algoritmo: si contiene muchos más hombres blancos que mujeres negras, será más preciso para identificar a los hombres blancos.
Los sistemas de inteligencia artificial – por ahora – no son actores independientes o responsables y, por lo tanto, no se les puede evaluar como tales, dice Hübner
Según la nueva normativa, este grupo de “alto riesgo” estará sometido a regulaciones estrictas en relación con la transparencia y la calidad de los datos. Si se da la violación de alguna de las normativas establecidas, la pena económica puede suponer 30 millones de euros o el 6% de los ingresos totales anuales, según el valor más alto. Además, este nuevo marco propone también la creación de un Consejo Europeo de Inteligencia Artificial que, junto con los organismos supervisores nacionales, facilitará la implementación de estas medidas y desarrollará estándares para el uso de la IA.
¿Qué depara el futuro?
Para Hübner, la ética de la IA tiene que lidiar en la actualidad (y en el futuro próximo) principalmente con la interacción entre ella y el ser humano. “Los sistemas de inteligencia artificial – por ahora – no son actores independientes o responsables y, por lo tanto, no se les puede evaluar como tales”. A raíz de ello, dice, surgen cuestiones morales que llevan a mirar con mayor atención dicha interacción entre humano y máquina, y las consiguientes responsabilidades.
Dado que los avances tecnológicos se suceden con gran rapidez, hacer un pronóstico sobre el desarrollo de la inteligencia artificial y su convivencia con el ser humano para los próximos diez años es inviable. Aun así, Hübner cree que “en la próxima década no va a aparecer una superinteligencia superior a la humana. Se experimentará un aumento en el uso de la IA en la vida diaria, debido al inmenso volumen de datos y a la creciente presión de un procesamiento cada vez más rápido y potente. Esto, en sí, ya es un desafío suficientemente grande”.
Dado que las máquinas inteligentes, en sí, no pueden tomar decisiones basándose en consideraciones éticas, la responsabilidad de establecer principios éticos, normas morales y legales y definir las condiciones marco, los objetivos y los límites de la transformación digital y el uso de la inteligencia artificial reside en las personas.
Helena Farré Vallejo
@hfarrevallejo