Ningún deepfake político ha alarmado más a los expertos en desinformación del mundo que el mensaje de audio manipulado del presidente estadounidense Joe Biden, que comenzó a circular durante el fin de semana.
En el mensaje telefónico, una voz editada para que sonara como la de Biden instó a los votantes de New Hampshire a no emitir su voto en las primarias demócratas del martes. “Guarde su voto para las elecciones de noviembre”, decía el mensaje telefónico. Incluso hizo uso de una de las frases distintivas de Biden: “Qué montón de tonterías”. En realidad, el presidente no figura en la boleta electoral de New Hampshire, y votar en las primarias no impide que la gente participe en las elecciones de noviembre.
Muchos han advertido que este año se utilizarán nuevos generadores de video e imágenes impulsados por inteligencia artificial para obtener beneficios políticos, mientras que la representación de casi la mitad del mundo está en juego en las encuestas.
Pero son los deepfakes de audio los que preocupan ahora a los expertos. Son fáciles de editar, baratos de producir y particularmente difíciles de rastrear. Si se combina un mensaje telefónico convincente con una base de datos de registro de votantes, un mal actor tiene un arma poderosa que ni siquiera los sistemas electorales más avanzados están bien equipados para manejar, dicen los investigadores.
“El momento político del deepfake está aquí”, dijo Robert Weissman, presidente del grupo de expertos en defensa del consumidor Public Citizen. Pidió a los legisladores que establezcan protecciones contra grabaciones de audio y video falsas para evitar el “caos electoral”.
Ventajas y desventajas de la inteligencia artificial en política
El mensaje falso de Biden llega en un momento en que un número cada vez mayor de campañas políticas estadounidenses utilizan software de inteligencia artificial para llegar a sus electores en masa, y en un momento en que los inversores están otorgando dinero en nuevas empresas de clonación de voz.
El lunes 22 de enero, mientras circulaba el mensaje telefónico deepfake, ElevenLabs, la startup de replicación de voz de IA, anunció que había recaudado una nueva ronda de financiación que valoraba a la empresa en 1,100 millones de dólares.
La grabación política manipulada no fue la primera. El año pasado, se difundieron audios falsos en las redes sociales antes de las elecciones parlamentarias de Eslovaquia, incluido un clip en el que el líder del partido, Michal Simecka, parecía estar discutiendo un plan para comprar votos. Mientras tanto, el uso político de videos y audio deepfakes ha resultado limitado.
Investigan mensaje falso de Biden
No está claro exactamente cómo se generó el mensaje de Biden. El fiscal general de New Hampshire estaba investigando la llamada el lunes. Pero rastrear el audio falso hasta su fuente resultará especialmente difícil porque se difundió por teléfono y no en línea, según Joan Donovan, profesora asistente de periodismo y estudios de medios emergentes en la Universidad de Boston. Los mensajes de audio entregados por teléfono no vienen con el mismo rastro digital.
“Esto es un indicio de la próxima generación de trucos sucios”, dijo Donovan.
Hay otra razón por la que el clip falso de Biden fue particularmente preocupante para los investigadores de desinformación y los funcionarios electorales. Confirmó su mayor temor: los malos actores están utilizando deepfakes no solo para influir en la opinión pública sino también para impedir que los votantes acudan a las urnas.
“Incluso si esa información errónea introduce una confusión que sólo afecta a unos pocos cientos o miles de votos, podría ser significativa en términos de los resultados”, dijo Nick Diakopoulos, profesor de la Universidad Northwestern que ha investigado la manipulación de audios y elecciones.
La Comisión Federal Electoral de EU ha dado pequeños pasos para regular los deepfakes políticos, pero aún tiene que tomar medidas drásticas contra las tecnologías que ayudan a generarlos. Algunos estados han propuesto sus propias leyes para frenar los mensajes apócrifos.
Los funcionarios electorales están realizando ejercicios de entrenamiento para prepararse para un ataque. Alrededor de 100 funcionarios federales y estatales se reunieron en Colorado en agosto para pensar en la mejor respuesta a un video hipotético falso que contenía información electoral falsa.
Los deepfakes fueron el foco de otro ejercicio en Arizona en diciembre, cuando los funcionarios trabajaron en un escenario en el que un video del secretario de Estado, Adrián Fontes, fue falsificado para difundir información inexacta.
Mientras tanto, las herramientas de detección de deepfake aún están en sus primeras etapas y no son concluyentes.
El lunes, por ejemplo, la propia herramienta de detección de ElevenLabs indicó que era poco probable que la llamada de Biden se hubiera creado utilizando software de clonación, incluso cuando la startup de detección de mensajes falsos Clarity dijo que tenía más del 80 por ciento de probabilidades de ser un deepfake.