4

Compartidos

Artificial Intelligence signage is displayed during the Mobile World Congress, the world's largest mobile technology trade show, in Barcelona on March 3, 2025. (Manaure Quintero/AFP).

Artificial Intelligence signage is displayed during the Mobile World Congress, the world's largest mobile technology trade show, in Barcelona on March 3, 2025. (Manaure Quintero/AFP).

El vacío interior: Por qué los grandes modelos lingüísticos no pueden pensar, y nunca lo harán

El entusiasmo por los modernos sistemas de IA basados en grandes modelos lingüísticos, que están a punto de alcanzar la "verdadera inteligencia", confunde la fluidez con el pensamiento

5 de diciembre de 2025, 9:40 p. m.
| Actualizado el5 de diciembre de 2025, 9:40 p. m.

Los primeros intentos de inteligencia artificial (IA) fueron ridiculizados por dar respuestas seguras, erróneas y, a menudo, surrealistas, el equivalente intelectual a pedirle a un loro borracho que explique a Kant. Pero los sistemas modernos de IA basados en grandes modelos de lenguaje (LLM) son tan pulidos, elocuentes y extrañamente competentes a la hora de generar respuestas que muchas personas asumen que pueden saber y, lo que es mejor, que pueden razonar de forma independiente para llegar al conocimiento.

Esta confianza está fuera de lugar. Los LLM como ChatGPT o Grok no piensan. Son motores de autocompletado sobrealimentados. Usted escribe una indicación y ellos predicen la siguiente palabra, y luego la siguiente, basándose únicamente en los patrones de los billones de palabras con los que han sido entrenados. Sin reglas, sin lógica, solo conjeturas estadísticas disfrazadas de conversación. Como resultado, los LLM no tienen ni idea de si una frase es verdadera o falsa, o incluso sensata; solo "saben" si se parece a frases que han visto antes. Por eso a menudo inventan cosas con total confianza: casos judiciales, acontecimientos históricos o explicaciones físicas que son pura ficción. El mundo de la IA denomina a estos resultados "alucinaciones".

Pero como el discurso del LLM es fluido, los usuarios proyectan instintivamente la autocomprensión en el modelo, activada por los mismos "circuitos de confianza" humanos que utilizamos para detectar la inteligencia. Sin embargo, se trata de un razonamiento falaz, un poco como escuchar a alguien hablar francés perfectamente y suponer que también debe ser un excelente conocedor de vinos, moda y filosofía. Confundimos el estilo con el fondo y antropomorfizamos al hablante. Eso, a su vez, nos lleva a dos narrativas míticas:

Mito 1: "Si ampliamos los modelos y les damos más 'jugo', acabará surgiendo el verdadero razonamiento".

Los LLM más grandes son más fluidos e impresionantes. Pero su truco principal, la predicción de palabras, nunca cambia. Sigue siendo imitación, no comprensión. Se supone que la inteligencia surgirá mágicamente de la cantidad, como si hacer las ruedas más grandes y hacerlas girar más rápido acabara por hacer volar un coche. Pero el obstáculo es arquitectónico, no escalar: se puede hacer que la imitación sea más convincente (hacer que un coche salte de una rampa), pero no se convierte un predictor de patrones en un buscador de la verdad ampliándolo. Simplemente se consigue un mejor camuflaje y, según han demostrado los estudios, incluso menos fidelidad a los hechos.

Mito 2: "¿A quién le importa cómo lo hace la IA? Si da con la verdad, eso es lo único que importa. El árbitro definitivo de la verdad es la realidad, ¡así que acéptelo!".

Este mito es especialmente peligroso, ya que pisotea la epistemología con botas de hormigón. En esencia, afirma que la aparente fiabilidad del conocimiento mundano del LLM debería extenderse a la confianza en los métodos opacos a través de los cuales se obtiene. Pero la verdad tiene reglas. Por ejemplo, una conclusión solo es epistémicamente fiable cuando se alcanza mediante: 1) el razonamiento deductivo (conclusiones que deben ser ciertas si las premisas son ciertas); o 2) la verificación empírica (observaciones del mundo real que confirman o refutan las afirmaciones).

Los LLM no hacen ninguna de estas dos cosas. No pueden deducir porque su arquitectura no implementa la inferencia lógica. No manipulan premisas ni llegan a conclusiones, y no tienen ni idea de causalidad. Tampoco pueden verificar empíricamente nada porque no tienen acceso a la realidad: no pueden comprobar el tiempo ni observar las interacciones sociales.

Para intentar superar estos obstáculos estructurales, los desarrolladores de IA añaden herramientas externas como calculadoras, bases de datos y sistemas de recuperación a un sistema LLM. Estos mecanismos aparentes de búsqueda de la verdad mejoran los resultados, pero no solucionan la arquitectura subyacente.

Los vendedores de "autos voladores", que promocionan diversos logros como las puntuaciones en pruebas de CI, afirman que los LLM actuales muestran una inteligencia sobrehumana. En realidad, las pruebas de CI de los LLM violan todas las reglas para realizar pruebas de inteligencia, lo que las convierte en una competición de habilidades de ingeniería impulsada por humanos en lugar de una evaluación válida de la inteligencia de las máquinas.

Los esfuerzos por hacer que los LLM "busquen la verdad" lavándoles el cerebro para que se alineen con las preferencias de sus entrenadores a través de mecanismos como RLHF no dan en el blanco. Esos intentos de corregir el sesgo solo causan revuelo en una estructura que no puede soportar un razonamiento genuino. Esto se revela regularmente a través de fracasos como la bravuconería de MechaHitler de xAI Grok o la representación de Google Gemini de los padres fundadores de Estados Unidos como una alineación de caballeros "racializados".

Sin embargo, existen otros enfoques que se esfuerzan por crear una arquitectura de IA que permita un pensamiento auténtico:

- IA simbólica: utiliza reglas lógicas explícitas; fuerte en problemas definidos, débil en ambigüedad;

- IA causal: aprende relaciones de causa y efecto y puede responder a preguntas hipotéticas;

- IA neurosimbólica: combina la predicción neuronal con el razonamiento lógico; y

- IA agencial: actúa con un objetivo en mente, recibe retroalimentación y mejora a través del ensayo y el error.

Desgraciadamente, los avances actuales en IA se basan casi exclusivamente en la ampliación de los LLM. Y los enfoques alternativos reciben mucha menos financiación y atención, siguiendo el viejo principio de "seguir el dinero". Mientras tanto, la "IA" más ruidosa de la sala no es más que un loro muy caro.

No obstante, los LLM son logros asombrosos de la ingeniería y herramientas maravillosas útiles para muchas tareas. En mi próxima columna hablaré mucho más sobre sus usos.

Sin embargo, lo fundamental que deben recordar los usuarios es que todos los LLM son y seguirán siendo motores de patrones lingüísticos, no agentes epistémicos.

El bombo publicitario de que los LLM están al borde de la "verdadera inteligencia" confunde la fluidez con el pensamiento. El pensamiento real requiere comprender el mundo físico, una memoria persistente, razonamiento y planificación, aspectos que los LLM solo manejan de forma primitiva o no manejan en absoluto, un hecho de diseño que no es controvertido entre los expertos en IA.

Traten a los LLM como herramientas útiles que invitan a la reflexión, nunca como fuentes fiables. Y dejen de esperar a que el loro empiece a hacer filosofía. Nunca lo hará.

La versión original y completa de este artículo se publicó recientemente como primera parte de una serie de dos en C2C Journal. La segunda parte se puede leer aquí.

Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente las de The Epoch Times.


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
Opinión