Preocupaciones sobre la pornografía con IA o, más comúnmente, “porno falso”, son nada nuevo. Durante años, innumerables mujeres y niñas han sido sometidas a una avalancha de imágenes pornográficas no consensuadas que son fáciles de distribuir en línea pero bastante difícil de eliminar. Más notablemente, celebridad deepfake porno ha sido una fuente continua de controversia, una que con frecuencia ha llamado la atención pero poca tracción legislativa. Ahora, el Congreso finalmente puede hacerlo algo al respecto gracias a las imágenes sucias generadas por computadora de la estrella del pop más famosa del mundo.
Sí, ha sido una historia que ha sido difícil de evitar: Hace un par de semanas, Imágenes pornográficas generadas por IA de Taylor Swift se distribuyeron ampliamente en X (antes Twitter). Desde entonces, la base de fans de Swift ha estado alborotada y ha surgido una conversación nacional. sobre el tema familiar de la computadora sobre qué hacer sobre este problema tan familiar.
Ahora, se ha introducido legislación para combatir el problema. La Ley de interrupción de imágenes explícitas falsificadas y ediciones no consensuales (DEFIANCE) fue introducida como legislación bipartidista por el sensador Dick Durbin (D-Ill.), Josh Hawley (R-Mo) y Lindsey Graham (RS.C.). Si se promulga, el proyecto de ley permitiría a las víctimas de pornografía deepfake demandar a personas que distribuyeran “falsificaciones digitales” de ellos que fueran de naturaleza sexual. La ley propuesta básicamente Abrir la puerta a litigios de alto perfil por parte de celebridades femeninas cuyas imágenes se utilizan en casos como el que involucra a Swift. Otras mujeres y víctimas también podrían demandar, obviamente, pero las más ricas y famosas tendrían los recursos para llevar a cabo tales litigio.
El proyecto de ley define la “falsificación digital” como “una representación visual creada mediante el uso de software, aprendizaje automático, inteligencia artificial o cualquier otro medios generados por computadora o tecnológicos para parecer falsamente auténticos”.
“Este mes, imágenes falsas y sexualmente explícitas de Taylor Swift que fueron generadas por inteligencia artificial que se extendió a través de las plataformas de redes sociales. Aunque las imágenes pueden ser falsas, el daño a las víctimas de la La distribución de ‘deepfakes’ sexualmente explícitos es muy real”, afirmó el senador Durbin en un comunicado de prensa asociado con el proyecto de ley. El comunicado de prensa también señala que el “volumen de contenido ‘deepfake’ disponible en línea está aumentando exponencialmente a medida que la tecnología solía crearlo se ha vuelto más accesible al público”.
Como se señaló anteriormente, la IA o la pornografía Deepfake ha sido un problema constante durante bastante tiempo, pero la IA ha avanzado en los últimos años han hecho que la generación de porno realista (aunque un poco extraño) mucho, mucho más fácil. La llegada de generadores de imágenes gratuitos y accesibles, como DALL-E de OpenAI y otros de su tipo, significa que prácticamente cualquiera puede crear cualquier imagen que quieran o, al menos, puedan crear la mejor aproximación de un algoritmo de lo que quieran con solo hacer clic en un botón. Esto ha causado una serie de problemas en cascada, incluido un aparente explosión de material de abuso infantil generado por computadora que los gobiernos y los reguladores de contenido no parecen saber cómo combatir.
La conversación sobre la regulación de los deepfakes se ha abordado una y otra vez, aunque se han presentado o abandonado repetidamente esfuerzos serios para implementar alguna nueva política. por el Congreso. Aunque hay pocas maneras de saber si este esfuerzo particular tendrá éxito, como señala Amanda Hoover en Wired recientemente señaladoSi Taylor Swift no puede derrotar al porno deepfake, nadie podrá. Gizmodo