Los ciberdelincuentes están constantemente buscando nuevas formas de engañar a la gente. Una de las adiciones más recientes a su arsenal fue el software de simulación de voz.
En 2019, el director ejecutivo de un proveedor de energía británico transfirió 220 euros (249 dólares) a un estafador después de recibir una llamada de lo que sonaba como el jefe de la empresa matriz alemana de la unidad pidiéndole que transfiriera dinero a un proveedor húngaro. La voz se generó utilizando inteligencia artificial, dice Rüdiger Kirsch, experto en fraude de Euler Hermes, la aseguradora de la compañía de energía. (La aseguradora se negó a identificar al cliente, pero dice que pagó el reclamo).
Algunos especialistas en ciberseguridad han temido durante mucho tiempo lo que un hacker podría hacer con la IA en video: crear una versión convincente de, por ejemplo, un ejecutivo corporativo que realmente quiera saber su contraseña. El software de IA ahora es capaz de hacer esto prácticamente en tiempo real, lo que significa que un hacker podría fingir ser su jefe en una llamada de Zoom.
El 17 de agosto, los investigadores de la compañía de ciberseguridad Mandiant, propiedad de Google, documentaron los primeros casos conocidos de tecnología de video deepfake diseñada y vendida para estafas de phishing.
Los anuncios en foros de hackers y canales de Telegram en inglés y ruso se jactaban de la capacidad del software para replicar la imagen de una persona para hacer que un intento de extorsión, fraude o ejercicio de ingeniería social “parezca de naturaleza más personal”. La tarifa actual es tan pequeña como 20 dólares por minuto, 250 dólares por un video completo o 200 dólares por una sesión de capacitación.
Los investigadores no pudieron confirmar que los servicios que identificaron en los foros de hackers fueran legítimos o si se ha utilizado un deepfake en alguna estafa, pero la amenaza de la ingeniería social deepfake es real, dice Luke McNamara, analista principal de Mandiant.
Udi Mokady, presidente de la compañía de seguridad de la información CyberArk Software, descubrió recientemente cuán poderosos podrían ser este tipo de ataques. En un mensaje de video de Microsoft Teams el 20 de julio, Mokady se encontró mirando un deepfake de sí mismo. “Me sorprendió”, dice. “Allí estaba yo, agachado en una sudadera con capucha con mi oficina en el fondo”.
El truco fue creado por uno de los propios empleados de Mokady. Gal Zror, gerente de investigación de vulnerabilidades en CyberArk, utilizó herramientas generativas gratuitas de IA para recrear la imagen de Mokady. El objetivo inicial de Zror era ver qué era posible, y eso rápidamente se transformó en una advertencia para sus jefes.
La primera parada de Zror para su proyecto extracurricular fue un foro en línea popular entre los pornógrafos deepfake. Allí recopiló consejos sobre herramientas deepfake en tiempo real. Aprendió que una computadora con procesadores gráficos potentes como los fabricados por Nvidia Corp. era esencial. También necesitaba muchos datos para entrenar la herramienta deepfake, que encontró en forma de llamadas de ganancias grabadas, presentaciones de video y fotos del presidente de CyberArk.
Una vez que tuvo su deepfake de Mokady, Zror probó sus limitaciones. Disfrazado de Mokady, Zror descubrió que si usaba palabras con vocales largas, sonaba un poco apagado. Sin embargo, no pensó que fuera un gran problema.
“Dado que todos nos acostumbramos a la mala calidad de audio y video en las llamadas virtuales”, dice Zror, “todavía es lo suficientemente bueno como para lanzar un peligroso ataque de ingeniería social”. El proyecto tardó varios días en completarse, dice, y una persona no técnica con acceso a una buena potencia informática probablemente podría hacerlo en cuestión de semanas.
Zror presentó su trabajo en la conferencia de hackers Def Con en Las Vegas el 11 de agosto. La multitud aplaudió cuando se transformó en el organizador de la conferencia, el reconocido hacker Jeff Moss, en vivo en la pantalla.
Zror nunca trató de engañar a sus compañeros de trabajo con el deepfake. Mokady calcula que todos en CyberArk, que tiene unos 2.800 empleados, eran bastante expertos en tecnología y tenían suficiente acceso a él como para poder detectar una falsificación. “Si fuéramos del tamaño de una IBM o un Walmart o casi cualquier compañía Fortune 500″, dice, habría motivos legítimos de preocupación. “Tal vez el empleado No. 30,005 podría ser engañado”.