Experto en propiedad intelectual

Elecciones en riesgo: el auge del ‘deepfake’ y la desinformación

La IA ha puesto en manos del público herramientas sumamente poderosas que permiten imitar de forma convincente la voz y las expresiones faciales de cualquier individuo.

1 de junio de 2024, estamos a un día de la elección presidencial. Tras una desgastante campaña, dos candidatos se mantienen en empate técnico por el primer lugar.

Es hora de activar el plan D. Una noche antes de la elección, empieza a circular un video en donde uno de los contendientes aparece realizando actos atroces.

No cabe duda: es su rostro, su voz, el video es nítido. El material se propaga rápidamente y, en cuestión de horas, el empate se disuelve, dejando un vencedor evidente en las urnas.

Semanas después se descubre que el video era falso, una fabricación lograda con una técnica llamada deepfake que utiliza inteligencia artificial para imitar a la perfección los gestos y la voz de la persona elegida. Es demasiado tarde.

El deepfake y la desinformación

La tecnología para replicar la apariencia de una persona ha existido durante décadas; sin embargo, solía ser extremadamente costosa y sus resultados no eran del todo satisfactorios. En años recientes, esto ha cambiado drásticamente. Los avances en inteligencia artificial han puesto en manos del público herramientas sumamente poderosas que permiten imitar de forma convincente la voz y las expresiones faciales de cualquier individuo.

El deepfake ha permitido que las nuevas películas de Star Wars “revivan” a Carrie Fisher en su papel de la Princesa Leia o rejuvenezcan a Mark Hamill para interpretar a Luke Skywalker tal como lo vimos en El Retorno del Jedi. No obstante, los criminales también han encontrado formas de explotar esta tecnología.

En marzo de 2019, el Wall Street Journal reportó que un hacker había utilizado un software de inteligencia artificial para clonar la voz del CEO de una empresa británica. El hacker llamó a otro ejecutivo de su filial alemana y lo convenció de transferirle 220 mil euros a la cuenta de un proveedor en Hungría(1).

Un caso más alarmante ocurrió el año pasado, cuando un video deepfake de Volodímir Zelenski mostraba al líder ucraniano instando a sus soldados a deponer las armas y rendirse ante la invasión rusa. El video se propagó en redes sociales y, por un breve periodo, apareció en el sitio web de un medio de comunicación ucraniano. Hasta ahora, el autor del engaño sigue siendo desconocido.

Cada vez resultará más difícil diferenciar la realidad de la ficción. Las noticias falsas están adquiriendo una nueva dimensión que amenaza con engañar a un público más amplio. De hecho, hace una semana recibí en mi teléfono una serie de “fotos” de Donald Trump siendo arrestado. Caí en la trampa y compartí la noticia con varias personas, hasta que alguien me informó que las imágenes habían sido creadas con tecnología deepfake. Este incidente me motivó a escribir este artículo.

Me parece que prohibir estas conductas en una ley hará muy poco para disuadirlas, dependemos de la misma tecnología para contrarrestarlas. Algunas redes sociales como Facebook han invertido durante años en tecnología que les permita detectar el uso de deepfake, las elecciones que se avecinan en México y Estados Unidos serán una prueba de fuego para estas medidas de seguridad.

Post Scriptum: Estuvieron circulando fotos de un personaje fumando en calzón rojo, afirmaban que se trataba de un ministro de la Suprema Corte de Justicia de la Nación. Al final resultó que el caballero de tanga roja era un músico que nada tenía que ver con la Corte. Eso no fue deepfake sino una vil venganza por la suspensión a las reformas electorales.

(1) https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402

COLUMNAS ANTERIORES

T-MEC, bajo presión: el papel de México en la nueva Guerra Fría
Recuperar la confianza en el IMPI

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.