Tech

Deepfake porn: ¿qué es el porno falso que afecta a estrellas como Rosalía y otras mujeres?

Especialistas ya han advertido de los riesgos de que la inteligencia caiga en manos equivocadas y afecte a las mujeres de esta manera.

Rosalía ha hecho una denuncia pública por las fotos editadas que un rapero compartió. (Especial)

Un rapero compartió en redes sociales imágenes de porno falso (fake porn) con tecnología deepfake. Es decir, tomó fotografías reales de Rosalía y las editó en Photoshop, según dijo él mismo, para que ella pareciera estar sin ropa.

El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco. Existe algo llamado consentimiento”, expuso Rosalía en su cuenta de Twitter. Su mensaje fue compartido por artistas como Aitana y Rauw Alejandro.

La respuesta de Rosalía surgió luego de que JC Reyes defendiera que obviamente las fotos sin ropa de Rosalía que compartió eran editadas y que “no puedo estar subiendo fotos de la chavala, fotos que me manda a mí, eso sería de sinvergüenza”.

En otro video, el cantante dice que su siguiente tema se llamaría Rosalía, por ello la española acusó que el cuerpo de las mujeres no es para hacer marketing.

Rauw Alejandro, reguetonero y prometido de la española, ha expresado su apoyo y ha compartido el mensaje de Rosalía: “tú tienes a España contigo y al mundo entero. También me tienes a mí y a PR (Puerto Rico)”.

JC Reyes ya ha subido un nuevo video en el que afirma que su imagen fue malinterpretada.


Organizaciones en favor de los derechos de las mujeres se han pronunciado al respecto de este caso.

IPAS Latinoamérica y el Caribe se sumó a la denuncia pública hecha por Rosalía y apuntó que se trataba de un caso de violencia sexual digital.

¿Qué es el deepfake y qué es el fake porn?

La palabra deepfake se utiliza para nombrar aquellas imagenes o videos que son creados o alterados digitalmente con inteligencia artificial o aprendizaje automático.

Con deepfake, es posible crear videos con imagen y voz de una persona real para crear realidades alternativas. Y no es nuevo: desde hace varios años, algunas personas han experimentado con apps de inteligencia artificial para superponer rostros de celebridades sobre las imágenes de actrices en videos de otros contextos, en imágenes porno, por ejemplo.

La técnica del deepfake, con inteligencia artificial, ha permitido crear fake porno, o porno falso, que ha afectado sobre todo a las mujeres, famosas o no.

Existen miles de videos en una gran cantidad de sitios web. Y algunos han estado ofreciendo la oportunidad de crear imágenes propias, esencialmente permitiendo que cualquiera convierta a quien desee en fantasías sexuales sin su consentimiento, o use la tecnología para dañar a sus exparejas.

Especialistas en inteligencia artificial han señalado su temor de que el lado más oscuro de estas herramientas de fácil acceso pueda empeorar la pornografía falsa no consentida que afecta principalmente a las mujeres.

A principios de este año, la streamer de Twitch, QTCinderella, una joven de 28 años, publicó un video llorando en el que rogaba a las personas que dejaran de compartir imágenes de porno falso que alguien había creado de ella.

“Me vi en posiciones con las que nunca estaría de acuerdo, haciendo cosas que nunca querría hacer. Y fue bastante horrible”, contó la streamer a BuzzFeed News en enero de este año.

Algunas influencers han compartido sus experiencias desde que esto le pasó a QTCinderella, y varias dijeron sentirse ultrajadas. Maya Higa, cuya imagen también fue usada para hacer fake porn, comparó su experiencia con ser violada.

En enero, el streamer de Twitch Atrioc emitió un video de disculpa, con los ojos llorosos, después de ser cachado viendo pornografía de deepfake, con las caras superpuestas de otras mujeres streamers.

Especialistas han apuntado que la IA generativa podría causar un daño incalculable cuando cae en las manos equivocadas.

Con información de AP y The Conversation.

También lee: