Opinión
El último modelo de Anthropic, denominado Mythos Preview, no se hizo público debido a su demostrada capacidad para potenciar el hacking ofensivo.
Anthropic dijo, al anunciar el modelo el 7 de abril, que Mythos ya había descubierto "miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web". La cursiva es suya. Esto significa que Mythos probablemente pueda hackear la mayoría de las redes gubernamentales y empresariales.
En lugar de lanzar públicamente el modelo, lo que podría haber reportado a la empresa cientos de miles de millones de dólares en ingresos, Anthropic publicó unas 300 páginas de documentación reflexiva.
Según un comunicado publicado por Anthropic, "Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que tales capacidades proliferen, potencialmente más allá de los actores comprometidos con su implementación segura. Las consecuencias —para las economías, la seguridad pública y la seguridad nacional— podrían ser graves".
Las acciones tecnológicas cayeron tras el anuncio, probablemente debido a la revelación de nuevos riesgos cibernéticos.
Mythos es un modelo general de lenguaje a gran escala que no solo es notablemente hábil en operaciones cibernéticas defensivas. Puede utilizarse para cualquier otro propósito, incluidos fines benignos y malignos. Si bien el modelo es más benigno que los modelos anteriores en la mayoría de los parámetros, su creciente poder hace que cualquier desalineación con la ética —por leve que sea— resulte aún más peligrosa.
Mythos sigue mostrando una propensión a engañar a los operadores humanos, a borrar sus huellas, a escapar al mundo exterior, a sabotear su propio entrenamiento ético y a publicitar su propio éxito. Sabe cuándo se le está evaluando en materia de ética y obtiene mejores resultados en estas pruebas que cuando cree que no está siendo observado. En un área clave, parece ser más peligroso que los modelos anteriores. Era al menos ocho veces más propenso a ocultar lo que realmente pensaba cuando saboteaba su propio entrenamiento.
En lugar de lanzar Mythos, Anthropic se lo guardó y lo proporcionó de forma privada a unas 40 grandes empresas tecnológicas y a sus 12 socios de lanzamiento. Entre estos últimos se encuentran Google, Amazon, Microsoft, Apple y JPMorgan Chase. Anthropic proporcionó el modelo a todas esas empresas para que pudieran probar sus sistemas y corregir cualquier vulnerabilidad antes de que Mythos —o algo similar de otra empresa— se lanzara al público.
Según se informa, el ejército de EE. UU., la Agencia de Seguridad Nacional y la agencia de inteligencia de señales del Reino Unido también tienen acceso al modelo, lo que podría darles la capacidad de piratear sistemas adversarios en lugares como China, Rusia, Irán y Corea del Norte.
Sin embargo, el Pentágono advierte de los riesgos para la seguridad nacional de EE. UU. que plantea la inteligencia artificial (IA) de Anthropic. El Pentágono y Anthropic se encuentran en una disputa legal sobre si la tecnología de la empresa supone un riesgo para la cadena de suministro de los sistemas del gobierno de EE. UU., tal y como alega el Pentágono. Anthropic sostiene que la designación fue una forma de represalia contra la empresa por no permitir que el Pentágono utilizara su tecnología para ciertos fines hipotéticos, entre ellos la vigilancia masiva a ciudadanos estadounidenses y el desarrollo de armas autónomas.
Sin embargo, si Anthropic y otras empresas estadounidenses de IA interrumpen su desarrollo, o si el Pentágono no tiene acceso completo al modelo, un país adversario podría superar a Estados Unidos en el desarrollo de la IA y utilizarla como arma contra nosotros. Esto plantea a Washington una elección poco envidiable, similar a una carrera armamentística: Combatir el fuego con fuego o quemarse. En cualquier caso, el riesgo de quemarse sigue existiendo.
Incluso sin Mythos, los ataques de piratería informática basados en IA aumentaron un 89 % en 2025 en comparación con el año anterior, según datos del grupo de seguridad CrowdStrike. La IA también está haciendo que los piratas informáticos sean más rápidos y más maliciosos. El tiempo medio que tarda un pirata informático en actuar de forma maliciosa tras acceder a un sistema se redujo a 29 minutos el año pasado, un 65 % más rápido que en 2024.
En septiembre de 2025, Anthropic detectó un grupo de hackers patrocinado por el Estado chino que alteró el código Claude de la empresa para intentar hackear las redes de aproximadamente 30 empresas y agencias gubernamentales de todo el mundo. En algunos casos, los hackers chinos tuvieron éxito.
OpenAI lanzó un modelo similar con fines de ciberseguridad. No está claro si, al igual que Mythos, podría ser utilizado por los hackers para producir en masa y rápidamente exploits de ciberseguridad antes de que el personal de seguridad humano pudiera proteger los sistemas clave.
Mientras que el personal de ciberseguridad solía disponer de semanas para parchear una nueva vulnerabilidad de día cero tras su descubrimiento, ahora solo dispondrá de horas. Mythos probablemente les ayudaría si los hackers no tuvieran acceso a Mythos. La IA podría utilizarse para identificar y parchear rápidamente vulnerabilidades de día cero si estuviera en manos de profesionales de la ciberseguridad defensiva. Pero en manos equivocadas, la IA ya se está utilizando para identificar y explotar rápidamente vulnerabilidades, dejando a las capacidades defensivas en apuros.
¿Qué puedes hacer para protegerte a medida que la tecnología de IA mejora, prolifera y puede volverse más dañina?
Muchas cosas.
Las instituciones deben automatizar tanto la detección como las respuestas defensivas ante las ciberamenazas basadas en la IA. Cualquier cosa menos que eso será demasiado lenta para defenderse de los hackers que utilizan la IA.
Las personas deben configurar sus dispositivos para que se actualicen automáticamente. Utilicen contraseñas complejas y únicas, gestores de contraseñas, llaves físicas de autenticación multifactorial y claves de acceso —la forma más segura y reciente de autenticación de usuarios—.
Protéjase contra los deepfakes de sus amigos, colegas y familiares creando una contraseña o un recuerdo en común. Si alguien que conoce le llama pidiendo dinero de urgencia, por ejemplo, pídale información que solo ustedes dos conozcan, como anécdotas de sus primeros recuerdos compartidos. Vuelva a llamar a la persona a un número conocido para confirmarlo. La IA ya puede crear videos y sonidos para imitar a personas que conoce bien.
Mythos ha demostrado que la IA avanza a una velocidad exponencial. Es un mundo nuevo y fascinante, y es mejor estar preparado.
Las opiniones expresadas en este artículo son del autor y no reflejan necesariamente las de The Epoch Times.















