OpenAI busca contratar a un candidato para el puesto de "jefe de preparación" para hacer frente a los peligros que plantea la proliferación de la inteligencia artificial (IA), según declaró el director ejecutivo, Sam Altman, en una publicación del 27 de diciembre en X.
OpenAI despertó el interés inicial del público por las interacciones con los chatbots de IA con el popular lanzamiento de ChatGPT en noviembre de 2022.
"Se trata de un puesto fundamental en un momento importante; los modelos están mejorando rápidamente y ahora son capaces de hacer muchas cosas fantásticas, pero también están empezando a plantear algunos retos reales", escribió Altman.
"El impacto potencial de los modelos en la salud mental fue algo que ya pudimos vislumbrar en 2025; ahora estamos viendo cómo los modelos se están volviendo tan buenos en seguridad informática que están empezando a encontrar vulnerabilidades críticas".
La publicación se produce en un momento en el que OpenAI se enfrenta a una serie de demandas relacionadas con la salud mental. En noviembre, se presentaron siete denuncias contra la empresa en California, alegando que su chatbot ChatGPT envió a tres personas a un "agujero negro" delirante, al tiempo que animó a otras cuatro a suicidarse.
Según las demandas, las cuatro muertes se produjeron tras la conversación de las víctimas con ChatGPT sobre el suicidio. En algunos casos, el chatbot idealizó el suicidio, aconsejando a las víctimas sobre las formas de llevarlo a cabo.
En cuanto a la seguridad informática, múltiples informes han señalado los riesgos que plantean las IA.
Por ejemplo, un informe de mayo de McKinsey & Company advirtió que los modelos de IA capaces de detectar fraudes y proteger redes también pueden inferir identidades, exponer información confidencial y reensamblar detalles eliminados.
El informe "The State of Cybersecurity Resilience 2025" (El estado de la resiliencia de la ciberseguridad en 2025) de Accenture advertía que el 90 % de las empresas no están lo suficientemente modernizadas como para defenderse de las amenazas impulsadas por la IA.
En su informe de inteligencia sobre amenazas del 27 de agosto, la empresa de IA Anthropic, creadora de la IA Claude, afirmó que la IA se estaba utilizando como arma para llevar a cabo sofisticados delitos cibernéticos. En una operación, un hacker utilizó Claude para infiltrarse en 17 organizaciones, utilizando la IA para penetrar en las redes, analizar los datos robados y crear notas de rescate con tintes de manipulación psicológica.
En su publicación, Altman afirmó que, aunque OpenAI cuenta con una "base sólida" para medir las capacidades crecientes de sus modelos de IA, la empresa está entrando en un mundo en el que se requiere una "comprensión y medición más matizadas" para evaluar cómo se podrían abusar de estas capacidades y limitar sus inconvenientes.
Se trata de cuestiones "difíciles" con muy pocos precedentes, afirmó. Muchas ideas que parecen buenas tienen "casos extremos", que son situaciones extremas o inusuales que ponen a prueba los límites de un sistema, como la IA.
"Será un trabajo estresante y te verás inmerso en él casi de inmediato", afirmó Altman.
El puesto, con sede en San Francisco, requiere que la persona elabore evaluaciones de capacidades, establezca modelos de amenazas y desarrolle medidas de mitigación, según una publicación de OpenAI. El puesto ofrece una remuneración anual de 555,000 dólares, más acciones.
El responsable de preparación supervisará el diseño de medidas de mitigación en las principales áreas de riesgo, como la ciberseguridad y la biología, y se asegurará de que las salvaguardias sean "técnicamente sólidas, eficaces y acordes con los modelos de amenazas subyacentes".
En septiembre, ChatGPT tenía 700 millones de usuarios activos semanales en todo el mundo.
Amenaza de la IA
En un fragmento de una entrevista publicada en X el 18 de agosto como parte del documental "Making God", Geoffrey Hinton, un informático conocido como el "padrino de la IA", afirmó que estaba "bastante seguro" de que la IA provocaría un desempleo masivo.Sin embargo, "el riesgo sobre el que más he advertido... es el riesgo de que desarrollemos una IA mucho más inteligente que nosotros y que simplemente tome el control", dijo Hinton. "Ya no nos necesitará".
En una publicación del 18 de julio de la Universidad Charles Darwin en Darwin, Australia, Maria Randazzo, académica de la facultad de derecho de la universidad, advirtió que la IA pone en riesgo la dignidad humana.
Aunque la IA es un triunfo de la ingeniería, no muestra un comportamiento cognitivo; estos modelos no tienen ni idea de lo que están haciendo ni por qué, afirmó.
"No hay un proceso de pensamiento tal y como lo entendería un humano, solo reconocimiento de patrones despojado de encarnación, memoria, empatía o sabiduría", afirmó Randazzo.
"A nivel mundial, si no anclamos el desarrollo de la IA a lo que nos hace humanos —nuestra capacidad de elegir, de sentir, de razonar con cuidado, de empatizar y compadecernos— corremos el riesgo de crear sistemas que devalúan y aplanan la humanidad en puntos de datos, en lugar de mejorar la condición humana".
"La humanidad no debe ser tratada como un medio para alcanzar un fin".
















