Mundo

Videos virales de guerra en Gaza: ¿Te salió el de Shani Louk? ‘Deepfake’ se apodera de TikTok

¿Viste el video de Shani Louk, ciudadana muerta durante el ataque de Hamás, en redes? ¡Aguas! Es una grabación realizada con inteligencia artificial.

Los videos deepfake de los muertos violan las reglas de TikTok y se dirigen a personas que ya no pueden dar su consentimiento.

En una publicación reciente en TikTok, una mujer se para solemnemente frente a soldados armados con chalecos antibalas.

“Mi cuerpo fue expuesto, casi sin vida, en la parte trasera del camión por militantes de Hamás”, dice la mujer en español sobre una melancólica música de flauta. “Mi nombre es Shani Louk. La tristeza y la incertidumbre son ahora parte de mi realidad. Mi identidad y mi dignidad me fueron arrebatadas en ese momento”.

La mujer comparte lo que dice son sus opiniones sobre el ataque y hace referencia a los llamados de su madre por su seguridad. Pero no es Louk, la ciudadana germano-israelí de 22 años, muerta durante el asedio de Hamás a un festival de música el 7 de octubre.

En realidad, es una imagen suya falsificada: un video elaborado utilizando herramientas de edición de inteligencia artificial disponibles que pueden crear una imitación parlante y en movimiento de cualquier persona con sólo una foto y unos minutos de esfuerzo.


Louk había publicado a menudo en las redes sociales, lo que hacía que su imagen fuera fácil de tomar prestada para otros contenidos. La publicación, que apareció el día después del ataque, fue vista más de 7 millones de veces.

Bloomberg revisó docenas de videos deepfake en TikTok que retratan a víctimas de tragedias en varios idiomas, acumulando a veces millones de visitas y miles de comentarios.

Los más recientes son los videos de víctimas de la guerra entre Israel y Hamas, que parecen diseñados para generar simpatía y viralidad, aunque sus creadores suelen ser anónimos. Los investigadores de IA las llaman “resurrecciones digitales”.

Siguen un patrón similar: las noticias cubren una muerte trágica y, en cuestión de días o incluso horas, los usuarios publican videos de la imagen de esa persona hablando de cómo falleció. El formato de la tendencia generalmente incluye una introducción desde la perspectiva de esa persona y una imagen falsa de ella en la pantalla que cuenta la historia de cómo murió.


Los videos deepfake de los muertos, que violan las reglas de TikTok y se dirigen a personas que ya no pueden dar su consentimiento o denunciar el contenido para su eliminación, se están volviendo virales en la aplicación y pasan desapercibidos en su máquina de moderación de contenido. Tiene reglas contra la representación de ciudadanos privados y niños en los llamados videos de IA “sintéticos”, pero a menudo acumulan miles o millones de visitas en la aplicación.

TikTok eliminó los videos que formaban parte de la revisión de Bloomberg inmediatamente después de recibir los ejemplos por correo electrónico. La tecnología, que se basa en herramientas como DeepWord o DeepBrain, seguirá mejorando y producirá representaciones más realistas que serán más difíciles de detectar.

“Al igual que otras plataformas, TikTok continúa invirtiendo en detección, transparencia y asociaciones industriales para abordar esta tecnología en rápida evolución”, dijo un portavoz de TikTok, propiedad del gigante tecnológico chino ByteDance Ltd. “Tenemos políticas firmes para eliminar contenido dañino generado por IA desde nuestra plataforma”.

Los videos editados con IA de la guerra en Gaza

Los videos muestran niños muertos, ciudadanos privados y celebridades, y ninguna de las publicaciones revisadas muestra evidencia de que la víctima o sus sobrevivientes dieron su consentimiento para el uso de la imagen de esa persona.

Múltiples vídeos generados por IA de Ranani Glazer, víctima de Hamás, pretenden mostrar a un brasileño de 23 años hablando de su muerte. Uno tuvo más de 81 mil visualizaciones y fue uno de los videos recomendados al buscar su nombre en TikTok, junto con otros contenidos informativos sobre los ataques de Hamás, designado organización terrorista por Estados Unidos y la UE. El vídeo fue eliminado tras la solicitud de comentarios de Bloomberg.

El rostro de Vladimir Popov, un hombre ruso asesinado por un tiburón en Egipto en junio, fue reanimado a través de una versión de su foto de pasaporte en un video de TikTok publicado días después de su muerte, que afirma que su espíritu ahora vela por su padre.

“Podía sentir que mi vida se me escapaba y supe que iba a morir”, dice la voz en off en inglés. “En esos momentos finales pensé en todos los buenos momentos que pasé con mi papá. Papá, te amo”.

Docenas de estos videos todavía están activos y no han sido eliminados por el sistema de moderación de contenido de TikTok, lo que permite a los usuarios hacer crecer sus cuentas, mientras que la aplicación se beneficia del compromiso que las personas brindan con estos videos en línea.

El hecho de que los videos aparezcan junto con otro contenido de TikTok, típicamente alegre, en un desplazamiento rápido expone a los usuarios a estas imágenes manipuladas sin ningún contexto o explicación, dijo Henry Ajder, investigador sobre deepfakes e inteligencia artificial generativa.

“Estás desplazándote, desplazándote, hojeando, hojeando videos, y es posible que veas algo durante tres segundos y luego te aburras y sigas adelante”, dijo Ajder. “Pero en esos tres segundos has visto algo que no es real y no tienes la parte del vídeo donde se revela o se proporciona el contexto”.

TikTok, que alguna vez fue conocido como un lugar de ligereza y videos cómicos durante los bloqueos pandémicos, ahora se ve frecuentemente atrapado en la política global. Más de mil millones de personas utilizan la aplicación, a menudo buscando las últimas noticias importantes o recibiendo videos sobre eventos en desarrollo.

También lee: