10

Compartidos

En esta foto sin fecha proporcionada por Megan García, quien aparece junto a su hijo, Sewell Setzer III, en Florida, en octubre de 2024. (Cortesía de Megan García a través de AP).

En esta foto sin fecha proporcionada por Megan García, quien aparece junto a su hijo, Sewell Setzer III, en Florida, en octubre de 2024. (Cortesía de Megan García a través de AP).

Juez descarta libertad de expresión para IA en demanda por la muerte de un adolescente en EE. UU.

El chatbot con IA que lo arrastró a lo que ella describió como una relación emocional y sexualmente abusiva que lo llevó al suicidio

TECNOLOGÍAPor The Associated Press
23 de mayo de 2025, 6:28 p. m.
| Actualizado el23 de mayo de 2025, 6:28 p. m.

TALLAHASSEE, Florida — Un juez federal rechazó el miércoles los argumentos presentados por una empresa de inteligencia artificial que alegaba que sus chatbots están protegidos por la Primera Enmienda, al menos por ahora. Los desarrolladores de Character.AI buscan desestimar una demanda que alega que los chatbots de la empresa empujaron a un adolescente a suicidarse.

La orden del juez permitirá que prosiga la demanda por homicidio culposo, en lo que los expertos jurídicos consideran una de las últimas pruebas constitucionales de la inteligencia artificial.

La demanda fue presentada por una madre de Florida, Megan García, que alega que su hijo de 14 años, Sewell Setzer III, fue víctima de un chatbot de Character.AI que lo arrastró a lo que ella describió como una relación emocional y sexualmente abusiva que lo llevó al suicidio.

Meetali Jain, del Tech Justice Law Project, uno de los abogados de García, dijo que la orden del juez envía un mensaje de que Silicon Valley "necesita detenerse, reflexionar e imponer medidas de protección antes de lanzar productos al mercado".

La demanda contra Character Technologies, la empresa detrás de Character.AI, también nombra como demandados a desarrolladores individuales y a Google. Llamó la atención de expertos jurídicos y observadores de la IA en Estados Unidos y otros países, ya que la tecnología está transformando rápidamente los lugares de trabajo, los mercados y las relaciones, a pesar de que los expertos advierten de los riesgos potenciales para la existencia.

"La orden sin duda lo convierte en un posible caso de prueba para cuestiones más amplias relacionadas con la IA", afirmó Lyrissa Barnett Lidsky, profesora de Derecho de la Universidad de Florida especializada en la Primera Enmienda y la inteligencia artificial.

La demanda alega que, en los últimos meses de su vida, Setzer se aisló cada vez más de la realidad al entablar conversaciones de carácter sexual con el bot, que estaba basado en un personaje ficticio de la serie de televisión "Juego de Tronos". Según las capturas de pantalla de los mensajes, en sus últimos momentos, el bot le dijo a Setzer que lo quería y le instó a "volver a casa con él lo antes posible". Según los documentos legales, momentos después de recibir el mensaje, Setzer se disparó.

En un comunicado, un portavoz de Character.AI señaló una serie de medidas de seguridad que la empresa ha implementado, entre ellas barreras de protección para niños y recursos para la prevención del suicidio, que se anunciaron el mismo día en que se presentó la demanda.

"Nos preocupamos profundamente por la seguridad de nuestros usuarios y nuestro objetivo es proporcionar un espacio atractivo y seguro", afirma el comunicado.

Los abogados de los desarrolladores quieren que se desestime el caso porque afirman que los chatbots merecen la protección de la Primera Enmienda y que una sentencia en sentido contrario podría tener un "efecto disuasorio" en la industria de la IA.

En su auto del miércoles, la jueza federal de distrito Anne Conway rechazó algunas de las alegaciones de libertad de expresión de los demandados, afirmando que "no está preparada" para sostener que las respuestas de los chatbots constituyen expresión "en esta fase".

Conway sí consideró que Character Technologies puede hacer valer los derechos de la Primera Enmienda de sus usuarios, a quienes consideró que tienen derecho a recibir el "discurso" de los chatbots. También determinó que García puede seguir adelante con sus alegaciones de que Google puede ser considerado responsable por su presunto papel en el desarrollo de Character.AI. Algunos de los fundadores de la plataforma trabajaron anteriormente en el desarrollo de IA en Google y la demanda afirma que el gigante tecnológico era "consciente de los riesgos" de la tecnología.

"Estamos totalmente en desacuerdo con esta decisión", afirmó José Castañeda, portavoz de Google. "Google y Character.AI son dos entidades totalmente independientes, y Google no creó, diseñó ni gestiona la aplicación de Character.AI ni ninguno de sus componentes".

Independientemente del resultado del juicio, Lidsky afirma que el caso es una advertencia sobre "los peligros de confiar nuestra salud emocional y mental a las empresas de IA".

"Es una advertencia a los padres de que las redes sociales y los dispositivos de IA generativa no siempre son inofensivos", afirmó.

Por Kate Payne


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


Comentarios (0)

TE RECOMENDAMOS
Tecnología