Modelos de lenguaje avanzan, pero científicos cuestionan si realmente pueden crear AGI humana
Los modelos de lenguaje lo están logrando todo… o eso parece. ¿Pueden realmente pensar como humanos o solo imitan palabras?
La carrera por crear inteligencia artificial general (AGI) ha crecido entre las grandes empresas tecnológicas, pero hay dudas sobre si los modelos de lenguaje realmente podrán lograrlo.
OpenAI, Meta, Anthropic y otras compañías apuestan por sistemas como ChatGPT, Claude o Gemini, entrenados con enormes textos para predecir palabras. Sin embargo, muchos científicos creen que esto quizá no sea suficiente para alcanzar una inteligencia similar a la humana.
Líderes como Sam Altman, Mark Zuckerberg, Dario Amodei y Elon Musk hablan de lo cerca que estamos de la AGI y justifican enormes inversiones en chips, centros de datos y equipos especializados. Aun así, las preguntas sobre lo que estos sistemas pueden lograr siguen abiertas.

Le puede interesar: BPrO y SENA abren cursos gratuitos de inteligencia artificial para más de 1.300 jóvenes
Lenguaje no es inteligencia
El problema central es que lenguaje e inteligencia no son lo mismo. El lenguaje sirve para comunicarnos, pero no define cómo pensamos. Por eso, saber mucho de palabras no significa tener más capacidades cognitivas.
Los modelos de lenguaje funcionan con patrones estadísticos de millones de textos. Aunque son muy avanzados, no crean ideas ni razonamientos como los humanos. Depender solo del lenguaje limita su capacidad de desarrollar una inteligencia más amplia.
Esta diferencia hace difícil que sistemas basados solo en predicción de palabras lleguen a tener autonomía cognitiva real. Saber generar frases coherentes aún está muy lejos de comprender el mundo.
Debates en la comunidad científica sobre los modelos de lenguaje
Yann LeCun, experto en inteligencia artificial, critica que los modelos de lenguaje por sí solos no puedan crear AGI. Según él, el camino está en los modelos de mundo (LWM), que aprenden del entorno y simulan escenarios como lo haría un humano.

También le puede interesar: Aún puede acceder a las becas de inglés para quienes están en AvanzaTEC: este es el cronograma y los requisitos para aplicar
LeCun señala que los modelos de lenguaje no entienden el mundo físico ni predicen consecuencias. En cambio, los modelos de mundo combinan percepción, memoria y predicción, lo que permitiría una inteligencia más flexible.
Además, expertos notan que la evolución de los chatbots se ha estancado: las primeras versiones sorprendieron, pero las mejoras recientes han sido más lentas.
El rol del hype y las expectativas
Si los modelos de lenguaje enfrentan límites estructurales, surge la pregunta sobre por qué las empresas continúan insistiendo en que la AGI está cerca. Analistas señalan que gran parte de ese discurso responde a intereses económicos: mantener la expectativa facilita atraer inversiones y justificar el crecimiento de la infraestructura de cómputo.
La desaceleración tecnológica obliga a generar nuevas narrativas. Los agentes de IA, las proyecciones sobre capacidades futuras y la insistencia en un avance inminente de la AGI funcionan como mecanismos para sostener el ritmo de inversión. Sin estas promesas, el impulso financiero podría disminuir.

Elementos señalados por expertos:
- Los saltos recientes en IA generativa han sido menos disruptivos.
- Las mejoras actuales se concentran en ajustes incrementales.
- La industria depende del relato de que el escalamiento traerá inteligencia superior.
Aunque el escepticismo aumenta, no existe consenso en que la AGI sea inalcanzable. Investigadores como Andrej Karpathy consideran que podría lograrse, pero no en el corto plazo. Según su estimación, se necesitará al menos una década adicional de avances, probablemente apoyados en enfoques más amplios que los modelos de lenguaje tradicionales.