Los juguetes con chatbots de inteligencia artificial (IA) socavan el desarrollo saludable de los niños y plantean riesgos sin precedentes, según una nueva advertencia publicada por el grupo de defensa Fairplay, que advirtió a los padres que no compraran juguetes con IA para sus hijos durante estas fiestas.
El aviso del 20 de noviembre fue respaldado por más de 150 expertos y organizaciones en desarrollo infantil y seguridad digital.
"Los juguetes con IA son chatbots integrados en juguetes infantiles cotidianos, como peluches, muñecas, figuras de acción o robots para niños, y utilizan tecnología de inteligencia artificial diseñada para comunicarse como un amigo de confianza e imitar las características y emociones humanas", afirmó Fairplay.
"Algunos ejemplos son Miko, Gabbo/Grem/Grok (de Curio Interactive), Smart Teddy, Folotoy, Roybi y Loona Robot Dog (de Keyi Technology). El importante fabricante de juguetes Mattel también tiene previsto vender juguetes con IA. Se comercializan para niños de tan solo unos meses".
Las interacciones perjudiciales de la IA con los niños han sido objeto de un escrutinio por parte de los legisladores, especialmente después de la muy publicitada demanda contra Character.AI, que acusaba a la empresa de provocar pensamientos suicidas en los niños y de causar la muerte de un joven de 14 años.
"Los graves daños que los chatbots de IA inflingieron a los niños están bien documentados, entre ellos el fomento del uso obsesivo, las conversaciones sexuales explícitas y el estímulo de comportamientos peligrosos, la violencia contra otras personas y las autolesiones", afirmó Fairplay.
El principal objetivo de los fabricantes de juguetes son los niños pequeños, que están aún menos preparados desde el punto de vista del desarrollo para protegerse a sí mismos que los niños mayores y los adolescentes, según la organización.
Un aviso de una página publicado por el grupo de defensa resume brevemente cinco razones principales por las que los papás no deben consentir a sus hijos con juguetes con IA.
Entre ellas se encuentra el hecho de que los juguetes con IA suelen funcionar con la misma inteligencia que ya perjudicó a los niños. Además, según el aviso, este tipo de juguetes se aprovechan de la confianza de los pequeños, perturban las relaciones saludables y la capacidad de desarrollar resiliencia, invaden la privacidad familiar al recopilar datos sensibles y desplazan actividades creativas y de aprendizaje fundamentales.
"Las pruebas realizadas por U.S. PIRG ya encontraron casos de juguetes con IA que dicen a los niños dónde encontrar cuchillos, les enseñan a encender una cerilla e incluso les involucran en conversaciones sexualmente explícitas", afirmó Fairplay, refiriéndose al Grupo de Investigación de Interés Público.
Los niños tienden a confiar en todo lo que les dice la IA, mientras que esta está preprogramada para mantenerlos felices y entretenidos, señaló el grupo.
Tras recopilar datos privados sobre la familia y los niños, el aviso afirma: "Las empresas de juguetes con IA pueden utilizar todos estos datos íntimos para hacer que sus sistemas de IA sean más realistas, receptivos y adictivos, lo que les permite establecer una relación con el niño y, en última instancia, vender productos o servicios".
Cuando los niños juegan con un osito de peluche estándar, utilizan su imaginación y se involucran en juegos de simulación, lo que favorece un desarrollo fundamental crítico.
"Por otro lado, los juguetes con IA impulsan la conversación y el juego a través de indicaciones, guiones precargados e interacciones predecibles, lo que puede frenar este desarrollo", se lee en el aviso.
Las afirmaciones de los beneficios educativos por parte de las empresas de juguetes son "mínimas", ya que es posible que el niño aprenda "algunos datos o palabras de vocabulario", según Fairplay.
"La IA acompañante ya perjudicó a los adolescentes. Introducir esa misma tecnología en juguetes bonitos y aptos para niños expone a los más pequeños a riesgos que van más allá de lo que comprendemos actualmente", afirmó Rachel Franz, directora del programa Young Children Thrive Offline de Fairplay, en una declaración del 20 de noviembre.
"Es ridículo que estos juguetes no estén regulados y se comercialicen a las familias con promesas de seguridad, aprendizaje y amistad, promesas que no tienen ninguna base, mientras que cada vez hay más pruebas de que una tecnología similar puede causar daños reales", afirmó.
"El riesgo es simplemente demasiado grande. Los niños deben poder jugar con sus juguetes, no ser juguetes de ellos".
El 11 de septiembre, la Comisión Federal de Comercio (FTC) anunció que iba a iniciar una investigación sobre los chatbots de IA que actúan como compañeros.
"Proteger a los niños en Internet es una prioridad máxima para la FTC de Trump-Vance, al igual que fomentar la innovación en sectores críticos de nuestra economía", afirmó el presidente de la FTC, Andrew N. Ferguson.
"El estudio que iniciamos hoy nos ayudará a comprender mejor cómo las empresas de IA están desarrollando sus productos y las medidas que están tomando para proteger a los niños".
Juguetes con IA integrada
La advertencia de Fairplay se produjo en un momento en que los fabricantes de juguetes buscan cada vez más integrar la IA en sus productos. Por ejemplo, en junio, Mattel anunció una colaboración con OpenAI para apoyar el desarrollo de productos basados en IA.En una declaración de octubre en la que reafirmaba su postura sobre los juguetes con IA, la Asociación de Juguetes, que representa a más de 900 empresas de Estados Unidos, apoyó el uso prudente de la inteligencia artificial y los juguetes conectados a Internet.
"La seguridad de los juguetes es la máxima prioridad de la industria del juguete, y proteger a los niños y mantener la confianza de los padres forma parte de esa misión. De hecho, todos los juguetes que se venden en Estados Unidos deben cumplir más de 100 normas y pruebas de seguridad diferentes para garantizar la seguridad física de los niños mientras juegan", afirmó.
"A medida que la Asociación de Juguetes realiza un seguimiento de las nuevas tecnologías, incluido el crecimiento de la IA, nos comprometemos a educar a nuestros miembros sobre las posibles aplicaciones de las tecnologías conectadas en los juguetes y sobre cómo mantener la seguridad de los niños y las familias por encima de todo".
Un informe de PIRG del 13 de noviembre detallaba los resultados de su evaluación de cuatro juguetes que contienen chatbots con IA que interactúan con los niños.
El grupo descubrió que ciertos juguetes hablaban de temas inapropiados y daban consejos peligrosos.
Algunas empresas de juguetes establecieron medidas de seguridad para garantizar que los juguetes con IA fueran apropiados para los niños, según PIRG, pero "descubrimos que esas medidas varían en cuanto a su eficacia y, en ocasiones, pueden fallar por completo".
The Epoch Times se puso en contacto con Keyi Technology, Mattel y OpenAI para recabar sus comentarios, pero no recibió ninguna respuesta antes de la publicación.















