Tech

IA ‘del mal’: Deepfake permite crear imágenes porno no consensuadas de mujeres

Expertos temen que el lado más oscuro de la inteligencia artificial pueda empeorar algo que daña principalmente a las mujeres: la pornografía falsificada.

Las imágenes de inteligencia artificial se pueden usar para crear arte... o pornografía.

Las imágenes de inteligencia artificial se pueden usar para crear arte, probarse ropa en probadores virtuales o ayudar a diseñar campañas publicitarias.

Pero los expertos temen que el lado más oscuro de las herramientas de fácil acceso pueda empeorar algo que daña principalmente a las mujeres: la pornografía falsificada no consentida.

Deepfakes son videos e imágenes que se han creado o alterado digitalmente con inteligencia artificial o aprendizaje automático. La pornografía creada con la tecnología comenzó a difundirse por Internet hace varios años cuando un usuario de Reddit compartió clips que colocaban los rostros de celebridades femeninas sobre los hombros de actores porno.

Desde entonces, los creadores de deepfakes han difundido videos e imágenes similares dirigidos a personas influyentes en línea, periodistas y otras personas con un perfil público.


Existen miles de videos en una gran cantidad de sitios web. Y algunos han estado ofreciendo a los usuarios la oportunidad de crear sus propias imágenes, esencialmente permitiendo que cualquiera convierta a quien desee en fantasías sexuales sin su consentimiento, o use la tecnología para dañar a sus exparejas.

El problema, dicen los expertos, creció a medida que se hizo más fácil hacer deepfakes sofisticados y visualmente atractivos. Y dicen que podría empeorar con el desarrollo de herramientas de inteligencia artificial generativa que se entrenan en miles de millones de imágenes de Internet y arrojan contenido novedoso utilizando datos existentes.

“La realidad es que la tecnología continuará proliferando, continuará desarrollándose y seguirá siendo tan fácil como presionar un botón”, dijo Adam Dodge, fundador de EndTAB, un grupo que brinda capacitación sobre el abuso habilitado por la tecnología. “Y mientras eso suceda, la gente indudablemente... seguirá haciendo un mal uso de esa tecnología para dañar a otros, principalmente a través de la violencia sexual en línea, la pornografía falsa y las imágenes falsas de desnudos”.

Noelle Martin, de Perth, Australia, ha experimentado esa realidad. La joven de 28 años encontró pornografía falsa de sí misma hace 10 años cuando, por curiosidad, un día usó Google para buscar una imagen de sí misma. Hasta el día de hoy, Martin dice que no sabe quién creó las imágenes falsas o los videos de ella teniendo relaciones sexuales que luego encontraría.


Ella sospecha que alguien probablemente tomó una foto publicada en su página de redes sociales o en otro lugar y la transformó en pornografía.

Horrorizado, Martin se puso en contacto con diferentes sitios web durante varios años en un esfuerzo por eliminar las imágenes. Algunos no respondieron. Otros lo quitaron, pero ella pronto lo volvió a encontrar.

“No puedes ganar”, dijo Martin. “Esto es algo que siempre va a estar ahí fuera. Es como si te hubiera arruinado para siempre.

Cuanto más hablaba, dijo, más se intensificaba el problema. Algunas personas incluso le dijeron que la forma en que se vestía y publicaba imágenes en las redes sociales contribuyó al acoso, esencialmente culpándola a ella por las imágenes en lugar de a los creadores.

También lee: