Espectáculos

¿Qué es son los ‘deepfakes’, por los que ‘Taylor Swift’ desapareció de búsquedas de redes sociales?

El término ‘Taylor Swift’ ya no aparece en las búsquedas de X, Instagram y Threads debido a que la cantante fue víctima de ‘deepfakes’. Esto fue lo que sucedió.

Taylor Swift ya no aparece en búsquedas de redes sociales como X. (Fotoarte: Alan Unterberger / El Financiero).

Redes sociales como X, Instagram y Threads están suprimiendo la búsqueda ´Taylor Swift inteligencia artificial (IA)´ tras la filtración de imágenes sexuales falsas de la cantante estadounidense.

Esta medida se produce después de que imágenes falsas y sexualmente explícitas de Swift, probablemente creadas con inteligencia artificial generativa, se difundieran en las redes la semana pasada.

Una imagen compartida por un usuario en X fue vista 47 millones de veces antes de que la cuenta fuera suspendida el jueves pasado, según The New York Times.

Taylor Swift ya no aparece en búsquedas de X

X suspendió varias cuentas que publicaron las imágenes falsas de Swift y ha bloqueado las búsquedas de ´Taylor Swift´ y ´Taylor Swift IA´.

Cuando un usuario de X busca estos términos en la red social sale el mensaje: “Algo salió mal”.

El jefe de negocios de X, Joe Benarroch, según The Wall Street Journal, reconoció que esta medida es “temporal” y está destinada a “priorizar la seguridad”.


‘Taylor Swift IA’ en Instagram

Por su parte, Instagram y Threads, ambas redes sociales de Meta, permiten buscar ´Taylor Swift´, pero cuando los usuarios tratan de buscar ´Taylor Swift IA´ sale el mensaje: “¿Estás seguro de que quieres continuar? El término que buscaste a veces se asocia con actividades de organizaciones e individuos peligrosos”.

No obstante, estos cortafuegos son fáciles de saltar por parte de los usuarios, por ejemplo, si se ponen las mismas palabras pero en un orden distinto, como: ´Taylor IA Swift´.

Según The Daily Mail, Swift estaría considerando emprender acciones legales contra las páginas webs que publicaron estas imágenes falsas.

¿Qué es el ‘deepfake’ que afectó a Taylor Swift?

Microsoft y Google lanzaron el año pasado herramientas gratuitas que permiten usar la IA generativa para crear imágenes realistas mediante texto.

En una entrevista a NBC el viernes pasado el director ejecutivo de Microsoft, Satya Nadella, calificó los ‘deepfakes’ -imágenes que usan la cara de una persona en el cuerpo de otra- de “alarmantes y terribles” y dijo que cree que las empresas de inteligencia artificial deben “actuar rápido” para implementar mejores barreras de seguridad.

La preocupación por este tipo de imágenes falsas de contenido sexual explícito llegó hasta la Casa Blanca, donde su secretaria de prensa, Karine Jean-Pierre, pidió el viernes al Congreso que cree legislación para proteger a las personas.

Por su parte, el sindicato de actores de Estados Unidos (SAG-AFTRA, en inglés) calificó de “perturbadoras, dañinas y profundamente preocupantes” las falsas fotografías sexuales de Taylor Swift.

“El desarrollo y la difusión de imágenes falsas -especialmente las de naturaleza lasciva- sin el consentimiento de alguien debe ser ilegal”, dicta el comunicado de la institución publicado el viernes pasado en su página web.

Con la popularidad de la IA generativa cada vez circulan por Internet más ‘deepfake’ que usan la cara de famosos para estafas difundidas en las redes sociales: algunos de los blancos han sido el youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene más de 235 millones de seguidores, o el premiado actor Tom Hanks.

Deepfakes afectan principalmente a mujeres

El grupo de detección de deepfakes Reality Defender dijo que rastreó una avalancha de material pornográfico no consensuado que representaba a Swift, particularmente en X, anteriormente conocido como Twitter. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y a otras plataformas de redes sociales.

Los investigadores encontraron más de una veintena de imágenes únicas generadas por IA. Las más compartidas estaban relacionados con el fútbol, mostrando a una Swift pintada o ensangrentada que la cosificaba y, en algunos casos, infligía un daño violento a su imagen falsa.

Los investigadores han dicho que el número de deepfakes explícitos ha crecido en los últimos años, ya que la tecnología utilizada para producir tales imágenes se ha vuelto más accesible y fácil de usar.

En 2019, un informe publicado por la empresa de inteligencia artificial DeepTrace Labs mostró que estas imágenes eran abrumadoramente producidas contra las mujeres. La mayoría de las víctimas, dijo, eran actrices de Hollywood y cantantes sudcoreanas de K-pop.


También lee: