¿Burbuja de la IA?

¿Estamos viviendo una burbuja de la inteligencia artificial?

En la última sesión de la comunidad de antiguos alumnos de nuestros cursos, Luis aseguro que claro que lo estábamos, que siempre que hay una novedad o disrupción tecnológica se produce una burbuja, y tiene razón porque muchos de los inversores que hoy estánpagando precios astronómicos van a perder mucho dinero, pero no todos. Al mismo tiempo que haya una sobre valoración de algunas empresas no quiere decir que todas las empresas están sobre valoradas. Algunos también van a ganar mucho dinero. En cualquier caso a nosotros las finanzas no se nos han dado nunca muy bien.

Hay una gran discusión no solo sobre la posible burbuja de la inteligencia artificial, sino también sobre si esta se sustenta en la creencia de que llegaremos a la inteligencia artificial general (AGI) o no. Muchos sostienen que estas valoraciones solo se sostienen si llegamos a la AGI.

La salida de GPT-5 ha desinflado parcialmente la expectativa de que la AGI estaba a la vuelta de la esquina, lo que ha abierto la puerta a numerosas críticas sobre el volumen de inversión que se está destinando al desarrollo de IA sobre todo si la AGI o está muy lejos o no es posible.

En unas charlas celebradas con motivo del 75º aniversario del Test de Turing, varios científicos de renombre compartieron sus preocupaciones sobre el rumbo actual de la inteligencia artificial. Aunque no es precisamente santo de mi devoción, Gary Marcus ofrece un listado de los problemas actuales de la IA —especialmente de los modelos de lenguaje (LLM)— desde su perspectiva:

  • Alucinaciones: Los LLM generan respuestas incorrectas, inventan datos y hechos, y pueden afirmar con confianza información falsa, lo que limita su fiabilidad en tareas críticas. (Y yo diría que siempre que no se pongan guardarailes y sistemas de protección).

  • Falta de comprensión real: Simulan lenguaje y conversación, pero no comprenden el contenido ni el contexto profundo. Operan correlacionando patrones estadísticos. (Aquí de nuevo hay mucho que discutir y filosofos de la talla de Daniel Dennett que no estarían tan ade acuerdo con esa afirmación, sobre todo mientras no tengamos claro que significa comprender, mas allá de la percepción subjetiva que tenemos de comprender)

  • Déficit de razonamiento: Tienen dificultades para resolver problemas que requieren lógica, sentido común o razonamiento complejo que no se haya presentado durante su entrenamiento.(Y esto de nuevo está en cuestión con algunos procesos novedores de aprendizaje pro refuerzo).

  • Fragilidad ante casos novedosos: Fallan con facilidad ante preguntas que no aparecen en su conjunto de entrenamiento, mostrando poca adaptabilidad. (En general para esto se usan ejemplos de prompts que o son muy simples o están diseñados para engañar, y que podamos engañar a un sujeto no lo hace necesariamente no inteligente).

  • Sesgos y discriminación: Reproducen y amplifican los prejuicios presentes en los datos con los que fueron entrenados. (Igual que las personas)

  • Falta de transparencia y explicabilidad: No se puede comprender ni explicar cómo llegan a sus respuestas, dificultando la auditoría y el control. (Sobre este desafio ya están trabajando gente del nivel de Mira Murati https://thinkingmachines.ai/ )

  • Alto coste energético y ambiental: El entrenamiento y funcionamiento de estos modelos requiere grandes cantidades de recursos computacionales. (Google anunciaba esta semana que empezaba a usar IA para acelerar la producción de energia en https://siliconangle.com/2025/10/16/googles-deepmind-cfs-building-ai-plasma-control-system-nuclear-fusion/ ).

  • Ausencia de sentido común: Aunque imitan el lenguaje humano, carecen de una comprensión integrada del mundo y de la experiencia humana. (A mi esto me parece muy subjetivo).

Desde este punto de vista, la AGI sigue siendo un horizonte lejano, y Marcus, junto con otros, sostiene que eso hace que el volumen actual de inversión y el hype que lo rodea sean injustificables. Según esta tesis, solo si llegamos a la AGI se podrán generar los retornos necesarios para justificar estas apuestas financieras.

Confieso que no he hecho los números al detalle, pero me parece evidente que, con independencia de si alcanzamos la AGI o no, la inteligencia artificial ya tiene hoy suficiente capacidad para generar valor. En mi caso, cada vez más tareas son realizadas con el apoyo de la IA, o directamente por ella. La factura mensual que pagamos en la empresa por el uso de diversas herramientas —ingresos que acaban en manos de los fabricantes de IA— no deja de crecer.

Desde generadores de código hasta intérpretes en lenguaje natural capaces de ejecutar tareas por sí solos, nuestra dependencia de estas herramientas es cada vez mayor. Y, al mismo tiempo, es evidente que en la mayoría de las organizaciones el uso de IA sigue siendo marginal.

Esto me lleva a pensar que los ingresos de los fabricantes de inteligencia artificial seguirán aumentando. Recientemente, se ha hablado de que ChatGPT cuenta con 800 millones de usuarios únicos semanales, de los cuales un 5 % paga por el servicio. No parece descabellado pensar que ese número de usuarios se duplicará, e incluso que aumentará el porcentaje de quienes acceden a servicios de pago.

Nos sigue sorprendiendo muchas empresas que cuando piensan en dar acceso a la IA a sus empleados su números son: 20€/mes por 100 empleados son 2.000 €/mes una pasta. Supongo que no piensan que con que la IA ahorre (y no hablo de generar valor si no solo de ahorrar) una hora de trabajo al mes por trabajador ya se ha pagado el gasto.

Este fin de semana hablaba con una ejecutiva que trabaja mucho en Sillicon Valley y me contaba que allí la conversación es como voy a competir en el mundo de la IA, mientras que ella sentía (y creo que con razón) que en España la conversación es mas como me voy a ahorrar dinero con la IA. En entaina estamos empeñados en ayudar a las empresas a pasar al segundo modo.


En cualquier caso, así como en nuestra empresa el uso se ha multiplicado en los últimos meses, es razonable pensar que lo mismo ocurrirá en otros contextos y que los consumos de IA de las empresas, y detrás los ingresos de los productores de IA van a aumentar y mucho.

Por tanto, aunque es cierto que muchas valoraciones actuales no se justifican, y que algunas iniciativas no alcanzarán los niveles de adopción necesarios, también sabemos —porque ya hemos vivido otras burbujas tecnológicas— que habrá ganadores.

La historia demuestra que, aunque sean muchos los corredores, son pocos los que llegan a la meta. Aun así, algunos proyectos sí justificarán las enormes valoraciones actuales.