Académicos y profesionales de la ciberseguridad advierten que una oleada de investigaciones científicas falsas creadas con inteligencia artificial (IA) está pasando desapercibida en los controles de plagio y entrando en los registros académicos. Según los expertos, este fenómeno pone en peligro la credibilidad futura de la investigación científica al amplificar la industria del fraude de las "fábricas de artículos", que lleva mucho tiempo en funcionamiento.
Las fábricas de artículos académicos, organizaciones falsas que se benefician de estudios y autorías falsificados, han afectado a los académicos durante años y ahora la IA está actuando como un multiplicador de fuerzas.
Algunos expertos creen que se necesitan cambios estructurales y no solo mejores verificadores de plagio, para resolver el problema.
El alcance del problema es abrumador, con más de 10,000 artículos de investigación retirados de la circulación a nivel mundial en 2023, según Nature Portfolio.
Los manuscritos falsificados utilizando modelos de lenguaje grandes (LLM) están proliferando en múltiples disciplinas académicas y plataformas, incluido Google Scholar, según ha descubierto la Universidad de Borås. Un análisis reciente publicado en Nature Portfolio observó que las herramientas LLM, como ChatGPT, Gemini y Claude, pueden generar investigaciones plausibles que superan los controles estándar de plagio.
En mayo, Diomidis Spinellis, académico de informática y profesor de la Universidad de Economía y Negocios de Atenas, publicó un estudio independiente sobre el contenido generado por IA que se encuentra en la revista Global International Journal of Innovative Research después de descubrir que su nombre había sido utilizado en una atribución falsa.
Spinellis señaló que solo cinco de los 53 artículos examinados con el menor número de citas en el texto mostraban signos de intervención humana. Las puntuaciones de detección de IA confirmaron "altas probabilidades" de contenido creado por IA en los 48 restantes.
La aplicación y el sitio web ChatGPT se muestran en un teléfono y un ordenador portátil en una foto ilustrativa de 2025. Académicos y expertos en ciberseguridad advierten que las investigaciones falsas generadas por IA están pasando desapercibidas en los controles de plagio y entrando en los registros académicos, lo que amenaza la credibilidad del trabajo científico. (Justin Tallis/AFP a través de Getty Images).En un análisis de la ciencia "basura" generada por IA publicado en Google Scholar, investigadores universitarios suecos identificaron más de 100 artículos sospechosos de haber sido generados por IA.
Google no respondió a la solicitud de comentarios de The Epoch Times.
Los autores del estudio sueco dijeron que una de las principales preocupaciones con respecto a la investigación creada por IA, ya sea con ayuda humana o sin ella, es que la desinformación podría utilizarse para la "manipulación estratégica".
"El riesgo de lo que llamamos 'piratería de pruebas' aumenta significativamente cuando las investigaciones generadas por IA se difunden en los motores de búsqueda. Esto puede tener consecuencias tangibles, ya que los resultados incorrectos pueden filtrarse aún más en la sociedad y, posiblemente, también en más y más ámbitos", dijo el autor del estudio, Björn Ekström.
Además, el equipo de la universidad sueca cree que, incluso si se retiran los artículos, los trabajos de IA suponen una carga para el ya de por sí saturado sistema de revisión por pares.
Consecuencias de gran alcance
"El impacto más perjudicial de la avalancha de ciencia basura generada por la IA se producirá en las áreas de investigación que preocupan a la gente", dijo a The Epoch Times Nishanshi Shukla, especialista en ética de la IA de la Western Governors University.Shukla dijo que cuando se utiliza la IA para analizar datos, la supervisión y el análisis humanos son fundamentales.
"Cuando toda la investigación es generada por la IA, existe el riesgo de homogeneización del conocimiento", dijo.
"A corto plazo, esto significa que toda la investigación que sigue caminos y métodos similares se ve corrompida por supuestos y sesgos similares, y solo atiende a determinados grupos de personas", dijo. "A largo plazo, esto significa que no hay nuevos conocimientos y que la producción de conocimientos es un proceso cíclico desprovisto de pensamiento crítico humano".
Una persona ve un ejemplo de un video "deepfake" manipulado mediante inteligencia artificial, creado por investigadores de la Universidad Carnegie Mellon, en Washington, el 25 de enero de 2019. Una de las principales preocupaciones con respecto a la investigación creada por IA, ya sea con ayuda humana o sin ella, es que la desinformación podría utilizarse para la "manipulación estratégica", según los investigadores. (Alexandra Robinson/AFP a través de Getty Images).Michal Prywata, cofundador de la empresa de investigación en IA Vertus, está de acuerdo en que la tendencia de la ciencia falsa basada en IA es problemática y que los efectos ya son visibles.
"Lo que estamos viendo ahora mismo es, en esencia, el equivalente a un ataque de denegación de servicio. Los investigadores reales se ahogan en el ruido, los revisores están abrumados y las citas se están contaminando con referencias falsas. Esto hace que sea más difícil identificar y validar los verdaderos avances científicos", dijo Prywata a The Epoch Times.
En su trabajo con sistemas de IA de vanguardia, Prywata ha visto de cerca los subproductos de los LLM desplegados masivamente, lo que, en su opinión, es el quid de la cuestión.
"Esta es la consecuencia previsible de tratar la IA como una herramienta de productividad en lugar de comprender lo que realmente es la inteligencia", dijo. "Los LLM, tal y como son ahora, no están construidos como mentes. Se trata de sofisticados sistemas de comparación de patrones que son increíblemente buenos para producir textos que suenan plausibles y eso es exactamente lo que necesita una investigación falsa para parecer creíble".
El director de seguridad de la información de Optiv, Nathan Wenzler, cree que el futuro de la confianza pública está en juego.
"A medida que se añaden más contenidos incorrectos o directamente falsos generados por IA a revistas respetables y revisiones científicas clave, los efectos a corto y largo plazo son los mismos: una erosión de la confianza", dijo Wenzler a The Epoch Times.
Desde el punto de vista de la seguridad, Wenzler dijo que las universidades se enfrentan ahora a un tipo diferente de amenaza en lo que respecta al robo de propiedad intelectual.
"Hemos visto ciberataques de actores estatales que se dirigen específicamente al robo de investigaciones de universidades e institutos de investigación y esos mismos Estados dan la vuelta y publican los resultados de sus propias universidades como si ellos mismos hubieran realizado la investigación", dijo.
En última instancia, Wenzler dijo que esto tendrá un enorme impacto financiero en las organizaciones que cuentan con subvenciones para avanzar en estudios científicos legítimos, tecnología, atención sanitaria y más.
Investigadores científicos desarrollan una vacuna de ARN replicante en un laboratorio de microbiología de la Facultad de Medicina de la Universidad de Washington en Seattle, el 10 de diciembre de 2020. Los expertos advierten que las universidades se enfrentan ahora a un mayor riesgo de robo de propiedad intelectual por parte de ciberataques de Estados-nación potenciados por la inteligencia artificial. (Karen Ducey/Getty Images).Wenzler describió un posible ejemplo real: "La IA podría utilizarse fácilmente para potenciar estos ciberataques, modificar el contenido de la investigación robada lo suficiente como para crear la ilusión de que se trata de un contenido único e independiente, o crear una narrativa falsa de que la investigación existente es defectuosa mediante la creación de datos falsos que contradigan los originales y socaven su credibilidad".
"El impacto financiero potencial es enorme, pero la forma en que podría afectar a los avances que benefician a personas de todo el mundo es inconmensurable", dijo.
Prywata señaló que una gran parte del público ya cuestiona el mundo académico.
"Lo que me asusta es que esto acelerará el cuestionamiento de las instituciones científicas por parte de la gente", dijo. "Ahora la gente tiene pruebas de que el sistema puede ser manipulado a gran escala. Yo diría que eso es peligroso para la sociedad".
La avalancha de artículos de investigación falsos generados por IA se produce en un momento en el que la confianza del público en la ciencia sigue siendo menor que antes de la pandemia de COVID-19. Un análisis del Pew Research Center de 2024 reveló que solo el 26 % de los encuestados confía plenamente en que los científicos actúen en beneficio del público. El 51 % dijo tener una confianza razonable; en cambio, el número de encuestados que expresaron el mismo nivel de confianza en la ciencia en 2020 era del 87 %.

Al mismo tiempo, los estadounidenses se han vuelto desconfiados con respecto a los avances en IA. Un estudio reciente de la Brookings Institution reveló que los participantes expuestos a información sobre los avances en IA se volvieron desconfiados en diferentes ámbitos, incluyendo la lingüística, la medicina y las citas, en comparación con los avances no relacionados con la IA en las mismas áreas.
Ilustración de Anthropic, una empresa estadounidense dedicada a la inteligencia artificial, el 1 de agosto de 2025. Michal Prywata advierte que los datos fabricados por la inteligencia artificial que se publican pueden entrenar nuevos modelos, creando un círculo vicioso de desinformación. (Riccardo Milani/Hans Lucas/AFP a través de Getty Images).
Encontrar soluciones
Shukla cree que la avalancha de investigaciones fabricadas por la inteligencia artificial es el resultado de la presión académica para publicar constantemente nuevos artículos."En tales circunstancias, cuando el número de artículos y citas dicta la carrera académica de uno, la investigación fabricada por IA sirve como una forma rápida de avanzar", dijo. "Por lo tanto, el primer paso para detener la investigación fabricada por IA es liberar la presión de publicación e implementar mejores métricas para medir el éxito académico".
Shukla hizo hincapié en la importancia de las campañas de concienciación dirigidas a las investigaciones creadas por IA, junto con el mantenimiento de "normas estrictas" en los informes académicos y las validaciones de autenticidad.

El Consejo Internacional de Ciencias afirmó que la publicación de artículos de investigación impulsa las clasificaciones universitarias y la progresión profesional. Esta "presión implacable" para publicar investigaciones a toda costa ha contribuido al aumento de los datos fraudulentos.
"A menos que esto cambie, todo el panorama de la investigación puede desplazarse hacia un estándar menos riguroso, lo que obstaculizará el progreso vital en campos como la medicina, la tecnología y la ciencia climática", dijo el Consejo Internacional de Ciencias.
Para empeorar las cosas, Prywata dijo que, cuando se publican datos falsos generados por IA, la información puede utilizarse para entrenar nuevos modelos de IA, creando un bucle de retroalimentación de desinformación.
"Necesitamos consecuencias", dijo.
Un estudiante sentado en un aula al finalizar una clase en la Universidad de Texas en Austin, el 22 de febrero de 2024. El énfasis en el volumen de publicaciones en el ámbito académico se ha vinculado durante mucho tiempo a la seguridad laboral y la financiación, pero Michal Prywata dice que el sistema de incentivos debe cambiar y que los investigadores y las instituciones deben asumir la responsabilidad financiera por los trabajos falsificados. (Brandon Bell/Getty Images).En la actualidad, hay pocos incentivos para no publicar todo el material académico posible. La importancia que se concede al volumen de contenido publicado en el ámbito universitario se ha asociado durante mucho tiempo a la seguridad laboral y al acceso a la financiación de proyectos.
"La solución no son mejores herramientas de detección [de IA], eso es una carrera armamentística que se perderá. Ya se están creando herramientas para burlar la detección de IA", dijo Prywata.
Él cree que la estructura de incentivos para las publicaciones académicas debe cambiar por completo, haciendo que los investigadores y las instituciones sean responsables financieramente de la publicación de trabajos falsificados.
"Dejen de recompensar el volumen de publicaciones y financien en función de la calidad de las citas y el impacto real", dijo.
Wenzler señaló que, aunque la revisión por pares sigue siendo el "estándar de oro" para validar los resultados de las investigaciones en las revistas, es fundamental que los grupos que realizan las revisiones inviertan el tiempo y la tecnología necesarios.
"Pongan a prueba la investigación y validen todas las fuentes proporcionadas", dijo.
Wenzler cree que se necesita una base más amplia de cooperación entre las instituciones académicas y la inversión gubernamental para apoyar la integridad de la investigación.
Lamentablemente, el sistema de revisión por pares no está exento de retos. Acosados por un flujo creciente de contenidos y limitaciones de tiempo, el cansancio de los revisores es un problema habitual. A esto se suma que, según datos de Nature Portfolio, la inteligencia artificial está desempeñando un papel cada vez más importante en el proceso de revisión por pares, lo que ha suscitado una nueva ola de preocupación entre la comunidad científica.
"Exijan una revisión por pares en directo con la identidad pública de los revisores", dijo Prywata. "Además, financien adecuadamente la revisión por pares en lugar de esperar trabajo no remunerado".
















