Tech

Deepfake porn ‘se dispara’: Cada vez más usuarios ‘desnudan’ fotos de mujeres con IA

Especialistas alertan por la tendencia al alza de usuarios que buscan y usan apps para crear pornografía no consentida de mujeres.

Especialistas alertan sobre la avalancha de usuarios que usan apps para "desnudar" fotos de mujeres. (Especial Bloomberg)

Las aplicaciones y los sitios web que utilizan inteligencia artificial para desnudar a las mujeres en las fotos están aumentando su popularidad, según los investigadores.

Solo en septiembre, 24 millones de personas visitaron sitios web de desnudez, según la empresa de análisis de redes sociales Graphika.

Muchos de estos servicios de desnudarse, o “nudify”, utilizan las redes sociales populares para el marketing, según Graphika. Por ejemplo, desde principios de este año, el número de enlaces que anuncian aplicaciones de desnudez aumentó más de un 2 mil 400 por ciento en las redes sociales, incluso en X y Reddit, dijeron los investigadores. Los servicios utilizan la IA para recrear una imagen de modo que la persona esté desnuda. Muchos de los servicios solo funcionan con mujeres.

Estas aplicaciones son parte de una tendencia preocupante de pornografía no consentida que se desarrolla y distribuye debido a los avances en inteligencia artificial, un tipo de medios fabricados conocidos como pornografía deepfake. Su proliferación se topa con serios obstáculos legales y éticos, ya que las imágenes a menudo se toman de las redes sociales y se distribuyen sin el consentimiento, control o conocimiento de la persona.

El aumento de la popularidad corresponde al lanzamiento de varios modelos de difusión de código abierto, o inteligencia artificial que pueden crear imágenes muy superiores a las creadas hace solo unos años, dijo Graphika. Debido a que son de código abierto, los modelos que utilizan los desarrolladores de aplicaciones están disponibles de forma gratuita.

“Puedes crear algo que realmente parezca realista”, dijo Santiago Lakatos, analista de Graphika, señalando que los deepfakes anteriores a menudo eran borrosos.


Una imagen publicada en X que anunciaba una aplicación de desnudez utilizaba un lenguaje que sugiere que los clientes podrían crear imágenes de desnudos y luego enviarlas a la persona cuya imagen se desnudó digitalmente, incitando al acoso. Una de las aplicaciones, por su parte, ha pagado por contenido patrocinado en YouTube de Google, y aparece primero cuando se busca con la palabra “nudify”.

Un portavoz de Google dijo que la compañía no permite anuncios “que contengan contenido sexualmente explícito”. “Hemos revisado los anuncios en cuestión y estamos eliminando aquellos que violan nuestras políticas”, dijo la compañía.

Un portavoz de Reddit dijo que el sitio prohíbe cualquier intercambio no consensuado de material sexualmente explícito falso y que había prohibido varios dominios como resultado de la investigación. X no respondió a una solicitud de comentarios.

Además del aumento del tráfico, los servicios, algunos de los cuales cobran 9.99 dólares al mes, afirman en sus sitios web que están atrayendo a muchos clientes. “Están haciendo muchos negocios”, dijo Lakatos. Al describir una de las aplicaciones de desvestirse, dijo: “Si les tomas la palabra, su sitio web anuncia que tiene más de mil usuarios por día”.

La pornografía no consentida de figuras públicas ha sido durante mucho tiempo un flagelo de Internet, pero especialistas en privacidad están cada vez más preocupados de que los avances en la tecnología de IA hayan hecho que el software deepfake sea más fácil y efectivo.

“Estamos viendo cada vez más de esto hecho por personas comunes con objetivos comunes”, dijo Eva Galperin, directora de ciberseguridad de la Electronic Frontier Foundation. “Lo ves entre los estudiantes de secundaria y las personas que están en la universidad”.

Muchas víctimas nunca se enteran de las imágenes, pero incluso las que lo hacen pueden tener dificultades para que las fuerzas del orden investiguen o para encontrar fondos para emprender acciones legales, dijo Galperin.

Actualmente no existe una ley federal que prohíba la creación de pornografía deepfake, aunque el gobierno de Estados Unidos prohíbe la generación de este tipo de imágenes de niñas y niños. En noviembre, un psiquiatra infantil de Carolina del Norte fue sentenciado a 40 años de prisión por usar aplicaciones para desnudarse en fotos de sus pacientes, el primer enjuiciamiento de este tipo bajo la ley que prohíbe la generación de deepfake de material de abuso sexual infantil.

TikTok ha bloqueado la palabra clave “desnudarse”, un término de búsqueda popular asociado con los servicios, advirtiendo a cualquiera que busque la palabra que “puede estar asociada con un comportamiento o contenido que viola nuestras pautas”, según la aplicación. Un representante de TikTok se negó a dar más detalles. En respuesta a las preguntas, Meta Platforms también comenzó a bloquear palabras clave asociadas con la búsqueda de aplicaciones de desnudez. Un portavoz declinó hacer comentarios.

También lee: