La programación con inteligencia artificial se volvió una herramienta diaria para desarrolladores en todo el mundo tecnológico. Estas herramientas digitales han facilitado mucho la escritura de código extenso. Sin embargo, los expertos dicen que esta ventaja conlleva nuevos riesgos de seguridad y la necesidad continua de supervisión humana.
Los desarrolladores afirman que la inteligencia artificial (IA) reduce en gran medida el trabajo pesado de escribir código, pero los desarrolladores experimentados están detectando fallos a un ritmo alarmante.
La empresa de pruebas de seguridad Veracode publicó en julio una investigación, recopilada a partir de más de 100 herramientas de IA de modelos de lenguaje grande (LLM), que mostraba que, aunque la IA genera código funcional a una velocidad asombrosa, también está plagada de posibilidades de ciberataques.
El informe señalaba que el 45 % de las muestras de código no superaban las pruebas de seguridad e introducían vulnerabilidades descritas por la organización sin ánimo de lucro dedicada a la ciberseguridad Open Worldwide Application Security Project.
Los investigadores de Veracode calificaron los resultados del estudio como "una llamada de atención para los desarrolladores, los responsables de seguridad y cualquiera que confíe en la IA para avanzar más rápido".
Algunos expertos dicen que la gran cantidad de fallas de seguridad no es sorprendente, dadas las limitaciones actuales de la IA en materia de codificación.
"Me sorprende que el porcentaje no sea mayor. El código generado por IA, incluso cuando funciona, tiende a tener muchos errores lógicos que simplemente reflejan una falta de contexto y de reflexión", declaró Kirk Sigmon, programador y socio del bufete de abogados especializado en propiedad intelectual Banner Witcoff, a The Epoch Times.
El investigador en ciberseguridad y antiguo operador de misiones del Iris Lunar Rover, Harshvardhan Chunawala, comparó la escritura de código de IA con la construcción de una casa. Dijo que es como si la IA redactara un anteproyecto rápido para una casa, pero el anteproyecto podría incluir puertas que no cierran, ventanas que no encajan o cableado que no es seguro.
Y con el avance de la IA en infraestructuras digitales críticas, dijo que el sistema ya no se limita a hacer "planos", sino que encarga los materiales y comienza la construcción antes de que se haya realizado la inspección de los cimientos.
"Un arquitecto humano todavía tiene que comprobar cada detalle antes de que la 'casa' sea segura para vivir", dijo Chunawala.
Sigmon tiene amplia experiencia programando con IA y aprendizaje automático, un subconjunto de la IA. Utilizó un ejemplo reciente para destacar las limitaciones del código generado por IA.
"Una noche estaba ayudando a un amigo a programar un sitio web con temática espacial e intenté ver si un LLM podía darme un código rápido y fácil para estrellas panorámicas compatibles con CSS3 para el fondo del sitio web", explicó.
Sigmon señaló que los resultados fueron decepcionantes y demostraron las limitaciones actuales de la IA.
"El resultado del modelo incluía código que intentaba generar estrellas, pero las agrupaba todas en la esquina superior derecha del navegador y, en lugar de hacerlas brillar agradablemente, las hacía parpadear como si fuera una fiesta improvisada", explicó.
"Sabía dibujar estrellas en un fondo y sabía que debían brillar, pero no tenía una visión global de por qué yo quería eso, y mucho menos de cómo podía quedar estéticamente agradable".
Sigmon dijo que el código generado por la IA también está creando hábitos perezosos que tendrán un impacto en el futuro de la industria.
"La calidad del código ha empeorado mucho en general. Uno de los problemas más preocupantes es el académico. Si los estudiantes pueden utilizar modelos de IA para generar sus proyectos de tareas, entonces no tienden a aprender buenas prácticas de codificación", dijo.
Código alucinante
Sigmon dijo que aprendió a programar como lo hacían muchos programadores de la vieja escuela: a través del ensayo y el error.“La disponibilidad inmediata de código perezoso generado por IA significa que los nuevos graduados están entrando en el mercado laboral y también generando código malo [o] poco fiable, lo que significa que muchos programas simplemente están empeorando", dijo.
En consecuencia, muchas bases de código modernas son en gran medida incomprensibles o ya no son muy útiles, según Sigmon.
"Antes era capaz de coger el trabajo de cualquier otro programador y entender más o menos su intención... Hoy en día, gran parte de ello me provoca un dolor de cabeza insoportable", dijo.

Un colega programador y exgerente de contenido web, que pidió ser identificado solo con su primer nombre, James, estuvo de acuerdo con Sigmon.
"Hay que tener mucho cuidado con las ediciones. No se puede confiar en el código de la IA", declaró James a The Epoch Times. Explicó que los programadores deben tener cuidado porque, cuanto más complejo es un proyecto, peores son las "alucinaciones" de la IA.
Cuando la IA percibe un patrón u objeto que no existe o que es imperceptible para los observadores humanos, puede crear resultados que son ilógicos o simplemente erróneos. Este patrón se denomina "alucinación", y James dijo que puede ser una parte desesperante del trabajo con código generado por IA.
"Puedes avanzar bastante [en el código] antes de darte cuenta de que hay un error y que la IA solo estaba alucinando", dijo.
Las alucinaciones de la IA ya han sido noticia por los problemas que pueden crear en el lugar de trabajo. Un estudio de 2024 observó que los LLM tenían una tasa de "alucinaciones" de entre el 69 % y el 88 %, según las respuestas a consultas legales específicas.
Los investigadores del Stanford RegLab y del Institute for Human-Centered AI descubrieron que el rendimiento de los LLM "se deteriora cuando se trata de tareas más complejas que requieren una comprensión matizada de cuestiones legales o la interpretación de textos jurídicos".
En una reciente comparación entre algunos de los productos LLM más importantes —Claude, Gemini y ChatGPT— se descubrió que Claude tenía la tasa de "alucinaciones" más baja, en torno al 17 %.
Para complicar aún más las cosas, James dijo que la IA a veces redobla sus errores, o incluso los defiende.
“Esto pasó mientras desarrollaba una aplicación de combate de rol. Lo que quería era simplemente tomar el nombre del primer archivo, y la IA lo perdía, y seguía intentando tomar otros datos del mismo archivo”, dijo James.
Cuando James señaló el error, dijo que la herramienta de IA "se negaba a aceptarlo". Es un problema que ha encontrado con varias herramientas de IA diferentes de la categoría LLM.
Cambiando el panorama
Chunawala dijo que la IA ha supuesto un cambio revolucionario para la escritura de código."El mayor cambio para nosotros, los informáticos, ha sido la velocidad. Mientras que antes los desarrolladores dedicaban horas a configurar el esqueleto de un programa o a escribir casos de prueba repetitivos, ahora la IA puede redactarlos en cuestión de minutos", explicó Chunawala a The Epoch Times.
Sin embargo, señaló que esta nueva velocidad conlleva un reto importante: la confianza.
"La IA a menudo genera código que a primera vista parece impecable, pero cuando lo examinas de cerca, descubres lagunas en la lógica, métodos obsoletos o defectos sutiles que pueden comprometer la seguridad", dijo Chunawala.
El experto en ciberseguridad Nick Nikiforakis dijo a The Epoch Times que la IA es buena para escribir código "estándar".
"No es difícil de escribir; es repetitivo, pero es algo que se requiere. La IA destaca en la producción de ese tipo de código, que se puede utilizar con modificaciones mínimas, siempre que la indicación incluya todas las especificaciones correctas", afirma Nikiforakis.
Él cree que aún no se ha llegado a una conclusión sobre si el desarrollador promedio puede crear código con menos errores que su homólogo generado por IA. Dicho esto, Nikiforakis cree que la “vibe coding” puede ser un escenario peligroso.
Acuñado por el investigador de IA Andrej Karpathy, el "vibe coding" es un método de desarrollo de software que utiliza herramientas LLM para generar código a partir de indicaciones en lenguaje natural, en el que el desarrollador se centra en los objetivos, los comentarios y la experimentación, en lugar de revisar o editar el código de IA en sí.
El "vibe coding" se ha convertido en sinónimo de la idea de que un desarrollador humano puede confiar en la IA para que lo haga bien, mientras se centra en el panorama general.
Nikiforakis dice que eso es problemático.
"Si hay personas que no se dedican a escribir software y nunca antes habían pensado en probar la IA, su único criterio para determinar si un software es bueno es su funcionalidad", dijo.
"Desgraciadamente, se trata de un caso de 'no sabes lo que no sabes', y por lo tanto esos usuarios no podrían reconocer una vulnerabilidad que se infiltra en su software de producción”.
Nikiforakis dijo que si el software creado con vibe coding se vuelve popular, será una “receta para el desastre”.
Chunawala dijo que el código de IA debe tomarse en serio desde el punto de vista de la seguridad.
"Las investigaciones han demostrado que aproximadamente entre el 40 y el 45 % de las aplicaciones generadas por IA contienen vulnerabilidades. En otras palabras, casi la mitad del software creado con IA podría dar pie a ataques", dijo.
Chunawala hizo hincapié en que estas vulnerabilidades de seguridad no son abstractas. Las calificó de "riesgos muy reales" y puso ejemplos como la falta de desinfección de las entradas de los usuarios, lo que puede permitir la introducción de comandos maliciosos.
Otro riesgo de seguridad del código generado por IA es la dependencia de "bibliotecas" obsoletas que los hackers ya saben cómo explotar.
"Esto ocurre porque la IA se entrena con grandes cantidades de código público, y gran parte de ese código público ya contiene errores", dijo Chunawala.
"El modelo no distingue entre buenas y malas prácticas; reproduce ambas. Sin una revisión humana exhaustiva y sin medidas de protección, estos puntos débiles pasan directamente a los sistemas de producción", añadió.
Pero ahí radica otro problema: los programadores humanos y los desarrolladores de software están perdiendo puestos de trabajo por la IA a un ritmo acelerado.
Una investigación de la Reserva Federal de St. Louis indica que las ofertas de empleo para desarrolladores de software han ido disminuyendo desde 2022.
James forma parte de la mano de obra tecnológica que ha tenido dificultades para encontrar un trabajo estable desde que fue despedido junto con el resto de su departamento en febrero. Dijo que hace cuatro años, cuando buscaba trabajo, los empleadores prácticamente “lanzaban dinero” para contratarlo.
Ahora, dijo, el mercado laboral está inundado de desarrolladores con talento que buscan trabajo.
"Parte de ello se debe a la eficiencia de la IA. Podemos hacer lo que hacíamos antes, pero mucho más rápido. No se necesita más personal. Antes quizá se necesitaban dos o tres desarrolladores, pero ahora solo se necesita uno", dice James, quien destaca que la competencia por los puestos de trabajo en su campo es "enorme".
"En un mundo ideal, se necesitaría un equipo para revisar todo lo que crea la IA. Pero estas decisiones no suelen tomarlas las personas que entienden la tecnología", dijo.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí