Fanáticos de la cantante pop Taylor Swift, políticos estadounidenses e incluso la Casa Blanca expresaron su indignación este viernes por imágenes pornográficas falsas de la estrella, generadas por inteligencia artificial, que se volvieron virales en la red social X y todavía estaban disponibles en otras plataformas.
Una de esas imágenes fue vista 47 millones de veces en X, antes Twitter, antes de su eliminación el jueves. Según medios estadounidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.
Las imágenes pornográficas “deepfake” –falsas pero extremadamente realistas- de celebridades no son nuevas. Pero a activistas y autoridades les preocupa que herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino.
El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno.
“El único lado positivo de que esto le haya sucedido a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que lo elimine. Ustedes están enfermos”, escribió la influencer Danisha Carter en X.
‼️The White House says the sexually-explicit AI images of Taylor are ‘alarming’ and that Congress should take legislative action to address explicit deepfakes online.#TaylorSwift pic.twitter.com/qQR10yklQT
— Taylor Swift Edits (@TSwiftEdits_13) January 26, 2024
“Alarmados”
Incluso la Casa Blanca expresó su preocupación sobre el tema.
“Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas”, dijo a los periodistas Karine Jean-Pierre, secretaria de Prensa del presidente Joe Biden.
“Infortunadamente, con demasiada frecuencia notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales blancos del acoso en línea”, añadió.
Imagen de Taylor Swift es utilizada por ciberdelincuentes
El rostro y la voz de la cantautora estadounidense Taylor Swift están siendo utilizados en una estafa en línea que tiene como objetivo robar dinero e información personal de los usuarios.
En las últimas semanas se han difundido en varias redes sociales, principalmente en Facebook, una serie de videos publicitarios en los que aparece la imagen de la popular artista, probablemente creada con una herramienta de inteligencia artificial (IA), ofreciendo un juego gratuito de utensilios de cocina de la prestigiosa marca Le Creuset.
En uno de los anuncios se invitaba a los interesados a ingresar a una página web, no relacionada ni con la empresa ni con la estrella del pop, y responder a un formulario que solicitaba información personal y el pago de los “costos de envío” del obsequio.
Tanto el hecho de que Taylor Swift haya expresado públicamente su gusto por Le Creuset, como el de que esos productos son costosos, hizo muy atractiva la promoción.
“Barreras necesarias”
Yvette Clarke, congresista demócrata de Nueva York que ha respaldado una legislación para luchar contra las fotos pornográficas falsas, resaltó que “con los avances en IA, crear deepfakes es más fácil y barato”.
De su lado, el legislador republicano Tom Kean, advirtió que “la tecnología de inteligencia artificial está avanzando más rápido que las barreras necesarias”.
“Ya sea que la víctima sea Taylor Swift o cualquier joven de nuestro país, debemos establecer salvaguardias para combatir esta tendencia alarmante”, expuso.
Un estudio de 2019 estimó que el 96% de los vídeos del tipo “deepfake” eran pornográficos.
Según una investigación citada por la revista Wired, en los primeros nueve meses de 2023 se subieron 113 mil vídeos “deepfake” a los sitios web pornográficos más populares.