El presidente Donald Trump firmó la Ley Take It Down el 19 de mayo, que penaliza la publicación de imágenes íntimas no consentidas. La legislación establece un plazo de 48 horas para que las plataformas en línea eliminen el contenido explícito a petición de las personas que aparecen en él.
Take It Down es el acrónimo de "Herramientas para abordar la explotación conocida mediante la inmovilización de deepfakes tecnológicos en sitios web y redes" y es un intento de mitigar la difusión de imágenes no consentidas y contenidos deepfake generados con inteligencia artificial (IA).
"Con el auge de la generación de imágenes mediante IA, las mujeres son acosadas con deepfakes y otras imágenes explícitas distribuidas contra su voluntad", dijo el presidente durante el acto de firma.
"Es algo terriblemente injusto y una situación muy abusiva... y hoy lo estamos convirtiendo en algo totalmente ilegal".
Qué establece la ley
La ley tipifica como delito la publicación de imágenes íntimas sin consentimiento, a veces denominadas "porno vengativo", o su equivalente generado por IA, que se ha convertido en un problema cada vez más frecuente debido a la difusión de tecnologías que permiten crear rápidamente este tipo de material.Los contenidos generados por IA que circulan actualmente por Internet incluyen videos que, aunque son falsos, a menudo parecen auténticos e incluyen la imagen de una persona real.
La ley recientemente firmada concede a las plataformas en línea un máximo de dos días para eliminar el contenido explícito después de que la persona identificable en los materiales presente una solicitud.
Cualquier persona condenada por distribuir intencionadamente imágenes explícitas sin el consentimiento de la persona cuya imagen se utiliza podría enfrentarse a penas de prisión.
La primera dama Melania Trump expresó su agradecimiento por la aprobación del proyecto de ley en el momento de la firma y advirtió sobre los peligros a los que se enfrentan los niños en Internet.
"La inteligencia artificial y las redes sociales son el caramelo digital de la próxima generación: dulces, adictivos y diseñados para influir en el desarrollo cognitivo de nuestros hijos", afirmó la primera dama.
"Pero, a diferencia del azúcar, estas nuevas tecnologías pueden convertirse en armas, moldear creencias, afectar tristemente las emociones e incluso ser mortales".
Historia de la ley
La legislación fue presentada por los senadores Ted Cruz (R-Texas) y Amy Klobuchar (D-Minn.) el 16 de enero y cobró un nuevo impulso gracias al apoyo público de Melania Trump.La primera dama llegó incluso a vincularla a su iniciativa Be Best, una campaña centrada en el bienestar de los niños.
El Senado aprobó el proyecto de ley el 13 de febrero por unanimidad y lo envió a la Cámara de Representantes.
La legislación sobre deepfakes y pornografía vengativa fue aprobada por la Cámara de Representantes con un apoyo casi unánime el 28 de abril, con 409 votos a favor y 2 en contra.
La representante María Salazar (R-Fla. ), promotora del proyecto de ley en la Cámara de Representantes, afirmó que ayudaría a prevenir el acoso cibernético y "los suicidios motivados por la vergüenza".
"Es escandalosamente enfermizo utilizar imágenes, el rostro, la voz y la imagen de una mujer joven y vulnerable para manipularla, extorsionarla y humillarla públicamente, solo por diversión, solo por venganza", declaró Salazar en la Cámara de Representantes antes de la votación.
"Y por eso hemos creado este proyecto de ley, para detener el abuso que se está propagando como la pólvora en las redes sociales".
Inmunidad previa
Las plataformas en línea gozaron durante mucho tiempo de inmunidad frente a las repercusiones del contenido generado por los usuarios gracias al artículo 230 de la Ley de Decencia en las Comunicaciones, que otorga inmunidad general a los servicios informáticos en lo que respecta al contenido de terceros.La abogada legislativa Victoria Killion redactó un artículo jurídico sobre la Ley Take It Down, que fue publicado en línea por la Biblioteca del Congreso, en el que se incluye el posible impacto en la aplicación del artículo 230.
Según Killion, aunque la ley no aborda explícitamente la relación entre la sección 230 y los requisitos de notificación y retirada de la ley, establece que "la plataforma cubierta no será responsable de ninguna reclamación basada en la desactivación de buena fe por parte de la plataforma cubierta del acceso a, o la retirada de, material que se alegue que es una representación visual íntima no consentida" en determinadas circunstancias.
El abogado señaló la posibilidad de que un proveedor de servicios pueda argumentar que sigue gozando de la protección de la Sección 230 si es procesado en virtud de la Ley Take It Down y existe cierto debate sobre si la ley es, en esencia, una revocación de parte de esas protecciones.
Se trata de "una cuestión que la corte puede resolver como una cuestión de interpretación legal... si los dos conjuntos de disposiciones pueden armonizarse de manera que se dé efecto a cada uno de ellos", dijo Killion.
La sección 230 se ha utilizado para proteger las plataformas de redes sociales en varios casos de gran repercusión. Un ejemplo reciente tuvo lugar a principios de este año, cuando la ley fue citada en una decisión del 24 de febrero de una corte federal para desestimar una demanda presentada por madres que alegaban que las plataformas debían tener responsabilidad legal por los supuestos "retos de asfixia" y otros contenidos perjudiciales.
Las demandantes alegaban que las plataformas eran estrictamente responsables por no haber eliminado los videos peligrosos tras haber sido notificadas y relataban historias desgarradoras de padres que habían perdido a sus hijos por participar en los retos.
El juez concluyó que la conducta de la plataforma en la moderación y eliminación de contenidos generados por los usuarios está ampliamente protegida por la sección 230.
Opiniones externas
No todo el mundo estaba a favor de la legislación y el representante Thomas Massie (R-Ky.) anunció el mismo día de la votación en la Cámara que no apoyaría la propuesta."Voto NO porque creo que es una pendiente resbaladiza, propicia para el abuso y con consecuencias no deseadas", dijo Massie en una publicación en la plataforma de redes sociales X.
De manera similar, Jason Kelley, director de activismo de la Electronic Frontier Foundation, resumió la preocupación de su organización cuando la legislación llegó a la Cámara de Representantes, afirmando que el proyecto de ley tenía graves deficiencias y podía suponer una restricción de la libertad de expresión.
"La disposición sobre la retirada de contenidos también carece de garantías fundamentales contra las solicitudes de retirada frívolas o de mala fe", afirmó Kelley.
"El ajustado plazo que establece la ley exige que las aplicaciones y los sitios web eliminen el contenido en un plazo de 48 horas, lo que rara vez es tiempo suficiente para verificar si el contenido es realmente ilegal. Como resultado, es probable que los proveedores de servicios en línea, en particular los más pequeños, opten por evitar el oneroso riesgo legal simplemente retirando el contenido en lugar de intentar verificarlo".
Meta, empresa matriz de Facebook e Instagram, se pronunció a favor de la legislación y su portavoz Andy Stone declaró en marzo de este año que "compartir una imagen íntima, ya sea real o generada por IA, sin consentimiento puede ser devastador y Meta está desarrollando y respaldando numerosas iniciativas para ayudar a prevenirlo".
En el otro lado del debate, el Centro Nacional contra la Explotación Sexual elogió la aprobación del proyecto de ley, afirmando que su conversión en ley es "una prueba de lo que podemos lograr cuando superamos las diferencias políticas y trabajamos juntos para poner fin a la explotación sexual".
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí