- entaina
- Posts
- ¿Cómo de lejos esta la AGI?
¿Cómo de lejos esta la AGI?
A raíz del anuncio de DeepSeek, o el de Operator de OpenAI, o el anunciado Google Gemini 2, y el modelo de research, ha vuelto a haber mucho debate en la red sobre el futuro de la AGI. Y aunque no todo el mundo coincide, parece que la mayoría piensa que estamos a unos 5 años de distancia para contar con una AGI.
De esos anuncios hablaremos en la sesión de Teito del próximo lunes, y luego aquí pondremos un resumen.
Nos hemos decidido a escribir este post después de ver la entrevista a Geoffrey Hinton, en la que vuelve a insistir en el riesgo existencial, y donde vuelve a demandar que las compañías inviertan mucho más en el problema del alineamiento.
Nos ha parecido muy interesante la entrevista a Demis Hassabis y como explica este premio nobel el problema de la creatividad de las IA.
A raíz de estos contenidos, hemos decidí que este número de la newsletter se centrará en la AGI: ¿qué es, cómo la definen quienes trabajan en el campo y qué aspectos faltan para alcanzarla?
La difícil definición de AGI
Hablar de AGI no es sencillo, principalmente porque ni siquiera los expertos se han puesto de acuerdo en una definición única. Sin embargo, las propuestas que distintos científicos líderes en IA han dado pueden ayudarnos a entender las ideas más relevantes en torno a este concepto:
Demis Hassabis (DeepMind): “Sistemas con inteligencia a nivel humano que pueden generalizar a nuevas tareas y aprender de forma autónoma.”
Ilya Sutskever (Ex-OpenAI): “Algoritmos que pueden aprender cualquier tarea que un humano pueda realizar.”
Geoffrey Hinton (Universidad de Toronto y pionero en redes neuronales): “Máquinas con la capacidad de comprender y razonar sobre el mundo de la misma manera que los humanos.”
Ben Goertzel (SingularityNET): “Sistemas que poseen cognición general comparable a la humana, incluyendo razonamiento, planificación, resolución de problemas, aprendizaje y comunicación.”
Shane Legg (DeepMind): “Un agente que puede lograr un rendimiento a nivel humano en la mayoría de las tareas cognitivas que los humanos pueden realizar.”
Emad Mostaque (Stability.ai y ahora ii.inc): “AGI es aquella inteligencia artificial que puede trabajar remotamente y no logras distinguirla de un humano.”
Aunque varían en énfasis, todos coinciden en algo esencial: la AGI se caracteriza por un nivel de desempeño y flexibilidad equiparable al de una persona. Algunos destacan la capacidad de generalización, otros la autonomía o la comprensión profunda del mundo. Me gusta mucho la definición de Emad Mostaque, porque pone el dedo en la llaga de la interacción humana—si a distancia no distingues a un trabajador humano de una máquina, estaremos ante un hito muy significativo.
¿Qué le falta a la IA actual para considerarse AGI?
A pesar de los impresionantes avances de los últimos años—modelos de lenguaje (LLM) que generan textos coherentes, algoritmos de visión por computadora que reconocen objetos mejor que muchos humanos, sistemas de recomendación que parecen leer nuestras mentes—todavía no contamos con un sistema que podamos llamar “generalmente inteligente”.
Como señala Gemini, hay varias carencias críticas a los grandes modelos de lenguaje y, en general, en los sistemas de IA de hoy:
Comprensión y razonamiento del mundo real:
Aunque los LLM funcionan muy bien con patrones lingüísticos, no tienen una comprensión profunda del sentido común ni de las relaciones causales. Su aparente habilidad para razonar no deja de ser, en su núcleo, una predicción del siguiente token.Conciencia y experiencia subjetiva:
Carecen de consciencia, emociones o autopercepción. Estos son aspectos centrales de la inteligencia humana y afectan la toma de decisiones de manera crucial.Generalización y adaptación:
A pesar de su versatilidad en tareas específicas, los modelos actuales tienen problemas para adaptarse a situaciones completamente nuevas o transferir habilidades de un dominio a otro sin un reentrenamiento sustancial.Creatividad e innovación:
Si bien pueden generar contenido original bajo ciertos parámetros, la verdadera creatividad—esa que cuestiona y redefine problemas—sigue siendo un rasgo esencialmente humano.Aprendizaje continuo y autonomía:
Los modelos de IA necesitan grandes conjuntos de datos etiquetados y, en la mayoría de los casos, no pueden aprender de forma online o a partir de la experiencia de la misma manera que las personas.
La visión de Yann LeCun y los grandes desafíos
Uno de los pioneros de la IA, Yann LeCun (Meta), y uno de los más activos en señalar las deficiencias de los modelos actuales, coincide en que alcanzar la AGI es sumamente complejo y que aún faltan avances en varias áreas clave:
Razonamiento y sentido común
Para que la IA sea realmente general, debe entender el mundo y sus lógicas subyacentes. Los sistemas actuales pueden parecer “inteligentes” gracias a las correlaciones que aprenden, pero no saben razonar al nivel que nosotros quisiéramos.Comprensión profunda del mundo
No basta con reconocer patrones; se necesita una representación abstracta de la realidad, de la física, de las relaciones causales y, en última instancia, del sentido común que tanto usamos los humanos.Aprendizaje autónomo
LeCun insiste en que la IA debería aprender sola, con menos dependencia de datos etiquetados, interactuando con su entorno y acumulando experiencia de manera similar a como lo hacemos las personas desde bebés.Arquitecturas de IA más sofisticadas
El uso de redes neuronales profundas ha sido un gran paso, pero quizás no sea suficiente. Podrían hacer falta nuevas ideas o combinaciones de enfoques que abarquen distintos paradigmas (conexionismo, simbólico, probabilístico, etc.).Investigación interdisciplinaria
Para LeCun, la neurociencia, la psicología o la filosofía pueden aportar pistas valiosas de cómo funciona la inteligencia humana y, con ello, cómo reproducirla en máquinas.
En definitiva, Yann LeCun resalta que estamos en un punto muy interesante de la historia de la IA, pero que las limitaciones actuales reflejan cuán lejos nos encontramos todavía de la AGI.
En lo que tiene que ver con la IAG y los LLM, la clave está en si el lenguaje contiene el universo o no, que parece una pregunta muy filosófica, pero que tiene que ver con si con el lenguaje se puede describir y, por tanto, aprender/enseñar todo, o hacen falta otras herramientas que no forman parte del lenguaje. Para Lecun es por ejemplo imprescindible la visión y un modelado del mundo en 3D que vivimos.
Reflexiones finales
Aunque las ideas sobre la AGI varían, lo que es innegable es que el concepto de “inteligencia general” va más allá de los logros alcanzados por la IA actual. Podremos tener sistemas extremadamente útiles y productivos—capaces de escribir textos, programar, ganar en juegos complejos y predecir patrones con precisión—pero parece que todavía no contamos con una “mente artificial” flexible, consciente, con comprensión real de lo que hace y capaz de aprender por sí misma en cualquier dominio sin grandes retoques.
La reciente entrevista de Geoffrey Hinton vuelve a poner sobre la mesa los riesgos y la velocidad a la que avanzamos. Su postura nos recuerda que la IA no solo promete beneficios, sino que nos obliga a preguntarnos por su impacto social y ético. ¿Qué sucederá cuando las máquinas sean capaces de realizar todas las tareas que hoy hacen los humanos? ¿Cómo regulamos, controlamos o convivimos con sistemas cada vez más poderosos?
Mientras tanto, el debate seguirá vivo. La IA avanza a pasos agigantados, pero la AGI—tal como la pintan Hassabis, Sutskever, Hinton, Goertzel, Legg o Mostaque—aún se ve como un horizonte lejano (aunque algunos dirían que cada vez menos). En cualquier caso, es un momento apasionante para reflexionar y prepararnos para el futuro de la inteligencia, sea humana o artificial.
¡Gracias por leer este número de la newsletter! Esperamos que te haya resultado útil para aclarar qué es la AGI y entender por qué, a pesar de los avances notables, todavía queda un largo camino por recorrer. Si tienes comentarios, dudas o quieres seguir la conversación, no dudes en responder a este correo.
Os dejamos unos cuantos enlaces de entrevistas que merece la pena ver:
Charla de Hassabis
Una entrevista de Hinton
La ponencia de Sutskeber