DEEPFAKES

Taylor Swift, nueva víctima de los montajes sexuales generados por IA

Las principales redes sociales están tratando de bloquear los términos que pueden permitir que los usuarios accedan a unas imágenes sexuales falsas en las que figura la famosa cantante estadounidense.

ondacero.es

Madrid | 29.01.2024 20:45

Taylor Swift, nueva víctima de los montajes sexuales generados por IA
Taylor Swift, nueva víctima de los montajes sexuales generados por IA | Casey Flanigan/ Imagespace Via Zu / Dpa / Europa Press

Un nuevo caso de generación de imágenes de carácter sexual mediante el uso de herramientas de Inteligencia Artificial ha generado polémica en todo el mundo. En este caso, la víctima de estos montajes ha sido la conocida cantante Taylor Swift, que, según 'The Daily Mail', estaría considerando emprender acciones legales contra las páginas web que, hace unas semanas, compartieron imágenes que representaban a la artista en contextos lascivos.

Los montajes - probablemente elaborados con herramientas de inteligencia generativa- han tenido una gran repercusión en las principales redes sociales del mundo, que están tratando de interrumpir la difusión de estos contenidos.

Las redes sociales reaccionan

X está bloqueando las búsquedas "Taylor Swift" y "Taylor Swift IA" en su red social, tras suspender diversas cuentas que habían publicado estos contenidos: el usuario de mayor repercusión cosechó 47 millones de visitas publicando las imágenes generadas por IA de Swift, antes de que su cuenta fuese tumbada por la administración de la red social de Elon Musk, según ha publicado 'The New York Times'.

Para mitigar el efecto llamada, la red social arroja el mensaje "Algo salió mal" al introducir alguno de los términos vetados. Joe Benarroch, jefe de negocios de X, ha afirmado que se trata de "una medida temporal" que tiene el objetivo de "priorizar la seguridad de la página".

Threads e Instagram, por otro lado, han optado por mostrar el siguiente mensaje a cualquier usuario tentado de buscar las polémicas imágenes, al introducir el término "Taylor Swift IA": "¿Estás seguro de que quieres continuar? El término que buscaste a veces se asocia con actividades de organizaciones e individuos peligrosos"

A pesar de los intentos de las redes por frenar las búsquedas, es posible eludir este cortafuegos cambiando el orden de los términos, o empleando combinaciones de palabras que no reconozcan los filtros automáticos de estas plataformas.

El peligro de los deepfakes

El sindicato de actores de Estados Unidos se ha pronunciado acerca de esta polémica, afirmando que las fotos sexuales falsas de Taylor son "perturbadoras, dañinas y profundamente preocupantes". "El desarrollo y la difusión de imágenes falsas- especialmente las de naturaleza lasciva- sin el consentimiento de alguien debe ser ilegal", manifestó la asociación sindical en un comunicado publicado el pasado viernes.

Con el avance y perfeccionamiento de estas herramientas de inteligencia generativa - que permiten realizar creíbles montajes introduciendo al software una descripción de texto-, está ganando espacio el debate acerca de los peligros que entraña la proliferación de estos deepfakes.

El director ejecutivo de Microsoft, Satya Nadella, emplazó a todas las empresas desarrolladoras de Inteligencia Artificial a "actuar rápido" para mejorar las barreras de seguridad de sus tecnologías, durante una entrevista concedida el pasado viernes en el canal de televisión NBC.

No es la primera vez que trascienden imágenes de este tipo: el actor Tom Hanks o el youtuber Mr. Beast - con más de 235 millones de seguidores- también han protagonizado, en contra de su voluntad, imágenes sexuales generadas por IA. La cantante española Rosalía denunció públicamente que un artista de reggaeton mostrase durante un directo de Instagram una foto manipulada en la que se podía ver a la cantante mostrando los pechos.

También en nuestro país resultó bastante polémico el caso registrado el pasado mes de septiembre en un instituto de Almendralejo (Badajoz). Varios alumnos del centro emplearon una app para generar montajes fotográficos en los que "desnudaron" a 20 compañeras de clase. El caso fue puesto en manos de la Fiscalía de Menores, y encendió en nuestro país el debate acerca del llamado fakeporn.