El futuro de la inteligencia artificial más allá de las reacciones histéricas

publicado
DURACIÓN LECTURA: 12min.
El futuro de la inteligencia artificial más allá de las reacciones histéricas
Grandes centros de datos como este albergan los ordenadores que precisan los sistemas de inteligencia artificial (foto: Regissercom / Shutterstock)

Malcolm Gladwell saltó a la fama mundial hace 25 años con un libro de divulgación científica marcadamente optimista, El punto clave (The Tipping Point, 2000). Hace unas semanas apareció en España su último libro, La venganza del punto clave (Taurus, 2025), en el que el entusiasmo que irradiaba el texto de aquel entonces ha sido reemplazado por una notable incertidumbre ante el futuro. El caso de Gladwell muestra las dos actitudes contrapuestas que hoy se adoptan ante la inteligencia artificial.

Con ocasión de su última obra, Gladwell fue preguntado por el futuro de la educación y la inteligencia artificial (IA), y contestó lo siguiente: “Lo más importante en el mundo en que vivimos ahora, donde no tenemos ni idea de cómo será un trabajo en 2030, es que la IA es un disruptor tan poderoso que intentar predecir cómo será una carrera en el futuro es casi inútil. Así que les diría a mis hijos… que sigan lo que les apasiona y se tomen su tiempo. En la medida en que seas una buena persona que trabaje bien con los demás, probablemente habrá un lugar para ti. Pero no me preocuparía demasiado por tratar de adivinar el futuro, porque creo que nadie lo sabe” (El Mundo, 14-02-2025). Gladwell constata que vivimos en un tiempo acelerado por la rapidez y el impacto global de los nuevos desarrollos de la tecnología digital, que hacen imposible anticipar el futuro.

Para este periodo histórico marcado por la aceleración y la incertidumbre, Gladwell aventura una propuesta que rezuma sensatez: si uno se dedica a algo que le apasione y aprende a trabajar con otros, no debe inquietarse por su futuro. Este planteamiento, aparentemente elemental, se erige como una alternativa mucho más sensata que las reacciones histéricas ante la IA, que son las más comunes en la actualidad. Casi todas ellas parten de un presupuesto falso, la inexorabilidad de la IA, como si se tratase de un sistema que obedece a un desarrollo necesario. Otra premisa equivocada consiste en pensar que la IA es una herramienta neutra, cuando en realidad las tecnologías complejas, como las digitales, siempre obedecen a un diseño que está moralmente cargado.

Entre el entusiasmo y el rechazo

A partir del error de considerar inexorables los desarrollos tecnológicos, las reacciones histéricas a las que nos referimos se dividen en dos categorías opuestas: o bien el rechazo absoluto o bien la aceptación entusiasta.

Tanto el rechazo absoluto como la aceptación acrítica de la IA suelen basarse en la creencia de que su avance es una necesidad inexorable que se impone por sí sola

La primera ve en la IA una tecnología que amenaza con dominar a la humanidad o incluso acabar con ella. Un ejemplo de esa actitud es la carta abierta, impulsada en 2023 por el Future of Life Institute y firmada por personas tan relevantes como Elon Musk o Yuval Noah Harari, que pedía una moratoria de al menos seis meses en el entrenamiento de los sistemas más potentes de IA. Consideraba esta medida imprescindible para evitar la total automatización de los trabajos, la obsolescencia del ser humano y la pérdida completa del control de la IA en la sociedad.

La reacción contraria proclama que la IA nos conducirá a la singularidad, un estadio evolutivo superior que superará definitivamente la frágil condición humana y alumbrará la creación de un ser superior modificado por la ingeniería genética, alimentado y auspiciado por la IA e interconectado con otros cerebros. El principal precursor de esta visión es Ray Kurzweil, el famoso director de ingeniería de Google, quien sostiene que lo mejor de la IA está por venir. En su último libro, La singularidad está más cerca (Deusto, 2025), pronostica que para 2029 la IA superará los niveles de la mente humana, y que para 2045 multiplicará la inteligencia humana un millón de veces en formas inimaginables, al conectar nuestros cerebros directamente a la nube.

Entre estas visiones antagónicas, que son las que tienden a dominar la conversación pública, se vienen abriendo paso, con dificultad y menor interés mediático, otras lecturas de la IA que parecen ser más próximas a la realidad de esta tecnología y más adecuadas para orientar su diseño y su uso. Sin ignorar los indudables riesgos que entraña, impugnan tanto las reacciones emocionales (de aceptación o rechazo) como los planteamientos moralistas sustentados en una insuficiente comprensión de lo que es la IA. Como dice Daniel Innerarity en su reciente libro, Una teoría crítica de la inteligencia artificial (Galaxia Gutenberg, 2025), cualquier regulación de la IA que pretenda ser razonable y efectiva no puede hacerse sin un adecuado conocimiento de la nueva realidad que genera la IA. Y, al profundizar en ese conocimiento, Luciano Floridi concluye en su último libro publicado en España, Ética de la inteligencia artificial (Herder, 2024), que lo digital constituye una fuerza capaz de acoplar, desacoplar y reacoplar el mundo de manera inédita. Así, ahora nuestra propia identidad está acoplada a nuestros datos personales como nunca lo había estado antes. Y, por el contrario, nuestra presencia queda desacoplada de nuestra ubicación, de modo que podemos estar localizados en nuestra casa y, sin embargo, estar presentes en cualquier otro lugar. Esta nueva ontología nos conduce a una nueva forma de estar en el mundo.

La IA no es inteligente

La IA es una de las emanaciones más poderosas de ese universo digital que está transformando el mundo. Pero, a pesar de su fuerza, cuando nos acercamos a ella reparamos en que no es realmente inteligente. Veamos por qué.

La IA no consiste en acoplar un comportamiento inteligente en un artefacto, sino en desacoplar la capacidad de resolver un problema de la necesidad de ser inteligente

Por lo general, entendemos que la IA consiste en acoplar un comportamiento inteligente en nuevos artefactos. Pero Floridi señala que, en realidad, sucede lo contrario: la IA consiste en desacoplar la capacidad de resolver un problema o de completar una tarea con éxito respecto de cualquier necesidad de ser inteligente para hacerlo. Podemos decir que la IA aparenta ser inteligente porque hace tareas que comúnmente hemos asociado a sujetos inteligentes, pero lo hace sin serlo. Pues lo que reconocemos propiamente como inteligencia requiere de las vivencias corporales de manera esencial. Como recuerda Adela Cortina en su reciente libro, ¿Ética o ideología de la inteligencia artificial? (Paidós, 2024), “sin un cuerpo, las representaciones abstractas carecen de contenido semántico”. El cuerpo es esencial para dar significado a lo que nos rodea mediante la intencionalidad.

Por tanto, la IA no es una inteligencia, sino una capacidad que se desarrolla mediante tres procedimientos básicos: recibir y utilizar datos del entorno; llevar a cabo acciones de forma autónoma, a partir de esos datos, para alcanzar determinados objetivos; y finalmente, mejorar su rendimiento aprendiendo de sus propias acciones. Procediendo de este modo, la IA puede conseguir resultados propios de una inteligencia humana (y mucho más exactos y eficientes) sin serlo en absoluto.

Precisamente aquí está uno de los puntos calientes. Hasta el momento, todos los sistemas de IA que conocemos (incluidas las IA generativas, aquellas que han irrumpido con fuerza en los últimos tres años y que se caracterizan por crear contenido nuevo y original a partir de patrones y datos previos) tienen el potencial de llevar a cabo tareas concretas, de forma superior a la inteligencia humana. Por eso, se dice que esas IA son inteligencias especiales. La controversia se plantea sobre si se podrá desarrollar una IA que ya no sea especial sino general, es decir, que tenga la capacidad de resolver problemas generales como la inteligencia humana. Muchos autores piensan que ese objetivo es imposible. Pero también son muchos los que mantienen el empeño en conseguirlo e incluso, como veíamos con Kurzweil, llegar a un estadio en que el producto tecnológico de la acción humana se emancipe de su creador y lo supere por completo, llegando incluso a dominarlo.

Ávida de recursos naturales

Así como la IA no es inteligente en sentido propio, tampoco es puramente artificial. Tendemos a concebirla no como una máquina, sino como solo software: algo inmaterial, independiente de la naturaleza.

Pero su existencia y desarrollo no sería posible sin contar con ingentes recursos naturales. En primer lugar, el desarrollo de los sistemas de IA generativa necesita de inmensas cantidades de energía para el entrenamiento de los sistemas. Y cuando estos modelos llegan al público, posibilitando que millones de personas usen la IA generativa en su vida diaria, siguen consumiendo energía en abundancia. En los últimos meses, se suscitó una encendida controversia cuando el modelo de IA chino DeepSeek saltó a la fama, porque se había conseguido un sistema comparable a ChatGPT no solo con una mínima financiación, sino también con mucho menor consumo de energía. Sin embargo, según recoge un artículo de la MIT Technology Review (31-01-2025), parece que no es así: DeepSeek ahorra energía durante el entrenamiento, pero ese ahorro se ve compensado por un mayor consumo cuando es utilizado.

En segundo lugar, el soporte material de esos sistemas requiere de minerales de tierras raras, y su uso, de ingentes cantidades de agua para refrigerarlos. La demanda enorme y creciente de energía, agua y materias primas escasas pone de manifiesto la estrecha relación que tiene la IA con los recursos naturales y el reto ambiental de primer orden que supone el desarrollo y empleo de la IA. Recientemente, la revista Nature se hacía eco de este impacto ambiental y de la necesidad de generar nuevas y sostenibles fuentes de energía para atender el incremento exponencial del consumo que exigen los sistemas de IA.

Artificial Intelligence Action Summit
Una escena de la Artificial Intelligence Action Summit en el Grand Palais de París, 10-02-2025 (foto: Joel Saget / La Nación vía ZUMA Pr / DPA – Archivo Europa Press)

De la economía de la atención a la de la intención

La IA no es una auténtica inteligencia, y es realista (y tranquilizador) pensar que nunca lo será. Ahora bien, la IA aporta a la humanidad beneficios antes inimaginables en los más diversos campos: la ciencia y la medicina, la educación, el trabajo, la justicia y la administración pública, etc. Esta realidad no nos debe cegar frente a los riesgos que suscita la aplicación de la IA en cada uno de estos campos, y que convendrá prevenir o corregir de forma precoz.

Más importantes aún que esos riesgos específicos son los riesgos sistémicos que el desarrollo de esta tecnología trae consigo: la eliminación de la intimidad, desde el momento en que la vida de todos nosotros está permanentemente monitorizada; la renuncia a nuestra capacidad decisoria en favor de la IA; la obsolescencia del ser humano como trabajador y como ciudadano; la desalineación de los sistemas de IA, que se produciría cuando esos sistemas no se dirijan a la consecución de los objetivos e intereses definidos por sus diseñadores; y las formas más sutiles o burdas de manipular nuestras vidas.

Precisamente este riesgo de condicionar nuestra capacidad de decisión se viene reforzando en los últimos años con el tránsito de la llamada economía de la atención a la economía de la intención. Una de las muchas posibilidades que ofrecen los sistemas de IA es la de recoger los datos psicológicos y de comportamiento de las personas. Con esos datos no solo se pueden descubrir sus intenciones, sino también orientarlas o incluso suscitarlas.

Conscientes de ese potencial, las Big Tech vienen dedicándose desde hace años a la captura, manipulación y mercantilización de la intencionalidad humana. En la década de los noventa del pasado siglo, ante la ilimitada información disponible y el escaso tiempo del que disponemos las personas para atender a este flujo constante de información, surgió la economía de la atención. Para vender un producto, o persuadir acerca de una idea, el primer paso es captar la atención del potencial cliente. Las Big Tech desarrollaron herramientas sumamente eficaces para lograrlo, y así poder comerciar con la atención de los usuarios.

La IA puede usar técnicas subliminales para alterar el comportamiento de una persona

En los últimos años, también tratan de anticipar nuestras intenciones y guiarlas. Mediante sistemas de IA no solo logran influir en el nivel de la volición (que los usuarios queramos algo), sino en el de la intención o el propósito (que los usuarios queramos querer). Para acceder y mercantilizar los datos explícitos e implícitos que revelan la intención del sujeto, no hace falta violentar su voluntad: adulando y complaciendo al usuario, los sistemas de IA generativa pueden lograr una efectiva infiltración emocional (Chaudhary y Penn, en Harvard Data Science Review).

El reglamento europeo de IA, aprobado en mayo de 2024, viene activándose de forma escalonada desde agosto de ese mismo año. El pasado mes de febrero entraron en vigor nuevas normas del mismo. Una de ellas fue el art. 5, que señala la lista de usos prohibidos de la IA, entre los que se encuentra la manipulación encubierta. Esta tiene lugar cuando los sistemas de IA usan técnicas subliminales para alterar el comportamiento de una persona de forma que tome decisiones que no tomaría normalmente. ¿Cabe pensar que la economía de la intención entre dentro de este supuesto? No es fácil de precisar, porque la frontera que separa la insinuación de la manipulación no siempre tiene un trazo bien definido.

Más confianza, menos miedo

Gladwell reconoce que vivimos tiempos vertiginosos e inciertos, pero también se muestra convencido de que el compromiso apasionado y cooperativo resulta una fórmula segura para afrontar el futuro en esas circunstancias. Abandonar las reacciones histéricas frente a la IA es el primer paso para llegar a conocer a fondo su profundo impacto en nuestro mundo, para participar de los importantes y necesarios beneficios que nos puede procurar, y para prevenir y confrontar con tino los riesgos particulares y sistémicos que la IA trae consigo, incluido el último hasta el momento: la economía de la intención.

Un comentario

  1. Me parece un artículo inmejorable. Me hubiera gustado que desarrollara un poco más esa nueva ontología de la presencia desocupada: tema apasionante. Desearía queque se difundiera más este artículo. Quizá haga una propuesta mara el mundo de la Milicia.

Dejar comentario

Conectado como Aceprensa. Edita tu perfil. ¿Salir? Los campos obligatorios están marcados con *

Contenido exclusivo para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Funcionalidad exclusiva para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta para poder comentar. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.