Esta advertencia sobre la IA es un mito, el peligro, sin embargo, no lo es

En esta ilustración fotográfica del 16 de mayo de 2025 se muestra la pantalla de un teléfono en la que aparece el logotipo de IA. (Oleksii Pydsosonnii/The Epoch Times)

En esta ilustración fotográfica del 16 de mayo de 2025 se muestra la pantalla de un teléfono en la que aparece el logotipo de IA. (Oleksii Pydsosonnii/The Epoch Times)

1

Compartidos

21 de abril de 2026, 5:16 p. m.
| Actualizado el21 de abril de 2026, 5:16 p. m.

Opinión

Ya conoce esta historia. Si echa una rana en agua hirviendo, saldrá corriendo inmediatamente. Pero si pone esa misma rana en agua fría y la calienta poco a poco, grado a grado, nunca se dará cuenta del peligro hasta que sea demasiado tarde.

La mayoría de nosotros aceptamos esto sin cuestionarlo. El problema es que la historia no es cierta.

Se remonta a un fisiólogo alemán llamado Friedrich Goltz, quien en 1869 llevó a cabo una serie de experimentos con un propósito bastante inusual: determinar si el alma residía en el cerebro o en la médula espinal. Extirpó partes del cerebro de una rana y observó qué era lo que el animal ya no podía hacer sin él. Descubrió que una rana sin cerebro se quedaba plácidamente en agua que se calentaba lentamente y no intentaba escapar. Sin embargo, una rana normal, con el cerebro intacto, notaría el aumento de temperatura y saldría.

Ese hallazgo se difundió durante las décadas siguientes, despojado de su contexto, y se transformó en la fábula con moraleja que ahora todos repetimos. Biólogos posteriores confirmaron el hallazgo original: una rana en agua fría saltará fuera antes de que se caliente demasiado.

Historias relacionadas

El uso diario de la Inteligencia Artificial se relaciona con un mayor nivel de depresión

El uso diario de la Inteligencia Artificial se relaciona con un mayor nivel de depresión

La rana que permanece en el agua caliente es aquella que ya no puede pensar por sí misma.

Llevamos más de 150 años repitiendo esa historia como una verdad establecida, porque nos parecía acertada, sin detenernos nunca a preguntarnos si era realmente cierta. Aceptamos una falsa advertencia sobre el peligro de no darse cuenta de un cambio gradual, sin darnos cuenta de que la propia advertencia era falsa.

Eso por sí solo debería hacernos reflexionar. Pero este mes, se convirtió en algo más que una interesante nota al pie de página de la historia cuando un equipo de investigadores de la Universidad Carnegie Mellon, la Universidad de Oxford, el MIT y la UCLA publicó un estudio histórico sobre cómo la inteligencia artificial (IA) está afectando a la cognición humana. Los hallazgos son fascinantes, pero la metáfora que eligieron llamó la atención de mucha gente. Escribieron sobre la rana que se hierve.

Los científicos que estudian los efectos de la IA en la mente humana describieron cómo el costo humano del uso de la IA podría ser "análogo al efecto de la 'rana en el agua hirviendo', en el que cada acto incremental parece no tener costo alguno, hasta que el efecto acumulativo se vuelve abrumador de abordar".

Estaban describiendo algo que no llega en un único momento dramático, sino grado a grado, uso a uso, en las decisiones cotidianas de los días normales.

Ya fuera a sabiendas o no, utilizaron una historia sobre un animal que solo deja de intentar escapar una vez que se le quita la capacidad de pensar.

En su estudio, los investigadores plantearon a los participantes una serie de problemas de razonamiento matemático y comprensión lectora para resolver. Un grupo tuvo acceso a un asistente de IA durante todo el proceso. El otro trabajó solo. Luego, sin previo aviso, se retiró la IA y se evaluó a todos de forma independiente con los mismos problemas.

El grupo de la IA obtuvo resultados significativamente peores. Ese resultado, tal vez, no sea sorprendente. Lo que sí es sorprendente es esto: todos los participantes en el experimento tenían un botón para saltarse la pregunta. No había penalización por usarlo, ni recompensa por seguir adelante. La decisión de intentarlo o rendirse era totalmente suya.

El grupo de la IA optó por saltarse las preguntas casi el doble de veces.

No se trataba de una incapacidad para resolver los problemas. Era una falta de voluntad para intentarlo. Tras solo 10 minutos de que un sistema de IA se encargara de cada momento de dificultad, algo había cambiado en las decisiones de los participantes. Los investigadores dan un nombre a lo que se perdió: "dificultades deseables". Es un término de la ciencia cognitiva que describe la lucha productiva que, en el momento, crea un desafío y, con el tiempo, es el proceso mediante el cual los seres humanos aprenden, crecen y desarrollan capacidades.

La incomodidad de no saber, la resistencia que ofrece un problema difícil, el esfuerzo necesario para resolver algo sin que le den la respuesta: todo ello no son obstáculos para el aprendizaje. Son el aprendizaje. Y la IA, diseñada para ser lo más útil posible en el momento inmediato, los elimina en todas y cada una de las ocasiones.

Lo preocupante no es que la IA haga a las personas menos capaces en un sentido permanente o medible; es que las hace menos dispuestas a intentarlo. Erosiona la voluntad de superar un reto, la base misma sobre la que se construye y se mantiene la inteligencia. Una persona que nunca levanta nada pesado no pierde la capacidad biológica de la fuerza de la noche a la mañana.

Esto es lo que los investigadores querían decir cuando invocaron la metáfora de la rana que se cuece. No estaban prediciendo ningún fallo catastrófico concreto. Estaban observando una acumulación de pequeñas rendiciones humanas.

Hay una generación que está creciendo en este momento y que vive esto a diario. Una reciente encuesta de Gallup reveló que el 42 % de los encuestados de la Generación Z cree que la IA está perjudicando su capacidad para pensar con detenimiento y les dificultará el aprendizaje en el futuro.

Se trata de niños y jóvenes adultos, cuyos cerebros aún se están desarrollando, que están formando sus hábitos cognitivos, su tolerancia a la dificultad y su relación con el esfuerzo, dentro de un entorno que ha sido optimizado para eliminar todas esas cosas de la forma más eficiente posible. Los investigadores advirtieron explícitamente del riesgo de crear una generación que haya perdido la disposición a esforzarse de forma productiva sin apoyo tecnológico. Esa no es una posibilidad lejana. Es una trayectoria en marcha.

Historias relacionadas

PELIGRO DIGITAL: Jóvenes atrapados por la inteligencia artificial

PELIGRO DIGITAL: Jóvenes atrapados por la inteligencia artificial

La ironía en el centro de todo esto es que hemos pasado 150 años repitiendo una historia falsa sobre cómo los humanos no se dan cuenta del peligro gradual. La hemos repetido sin espíritu crítico, sin verificarla, porque nos resultaba familiar e instintivamente correcta. Ahora, los científicos que documentan el cambio cognitivo gradual más significativo de nuestro tiempo han recurrido a esa misma historia falsa para nombrar lo que están observando.

Es hora de reescribir la historia de la rana que hierve.

La rana con un cerebro que funciona sale del agua antes de que se caliente demasiado. Esa capacidad de sentir el aumento de la temperatura, de reconocer lo que está sucediendo y de elegir cómo responder no es algo insignificante. Es, en el contexto de este momento, prácticamente todo.

La pregunta que vale la pena plantearse no es si estamos utilizando la IA. La mayoría de la gente ya lo hace, y eso no va a cambiar. La pregunta es cómo respondemos al aumento de la temperatura.

Las opiniones expresadas en este artículo son del autor y no reflejan necesariamente los puntos de vista de The Epoch Times


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS
Shen Yun Banner Header