Javier Murillo

Deepfake: de juego a peligro inminente

Javier Murillo advierte que la velocidad a la que la delincuencia está aprendiendo a usar la IA con fines ilegales es un peligro para varios sectores de la sociedad.

Los criminales cibernéticos están aprendiendo y refinando su uso de la IA para sus estafas. (Victor J. Blue/Bloomberg)

Estaba en pleno proceso de redacción de mi columna sobre los recientes anuncios de Neuralink, la empresa liderada por Elon Musk cuya misión es transformarnos en cyborgs, y su preparación para iniciar pruebas con humanos. Sin embargo, mi atención se desvió cuando Beto, mi socio CTO en Metrics, me compartió un mensaje vía Telegram de un usuario en X, Gary Markus, un renombrado experto en inteligencia artificial. El mensaje alertaba:

“Black Mirror ha llegado, antes de lo previsto. Un elenco completo de personas falsificadas engañó a un director financiero con 25 millones de dólares. “(En la) videoconferencia de varias personas, resulta que todos eran falsos” La mierda deepfake se está volviendo real.”

Mi asombro fue inmediato, y tras un intercambio de mensajes, Beto planteó una hipotética situación aún más alarmante: la posibilidad de que nuestra propia directora financiera cayera en una trampa similar, convocada a una reunión por nosotros, los socios, a través de un SMS. Reflexioné por un momento y admití, “Definitivamente caería en la trampa”.

Este incidente subraya una tendencia preocupante: el uso de deepfakes, una técnica avanzada de inteligencia artificial, está encontrando un terreno fértil no solo entre criminales organizados, propagandistas y bromistas, sino también en esferas más oscuras y cuestionables de nuestra realidad. La velocidad con la que esta tecnología ha sido adoptada para fines ilícitos es alarmante y pone de manifiesto una vulnerabilidad generalizada ante su potencial de engaño.

El caso de Hong Kong ilustra claramente esta problemática. Un empleado de una multinacional fue inducido a transferir $25.6 millones a estafadores que emplearon deepfake para personificar al director financiero de la compañía en una videoconferencia. Este hecho no solo resalta la ingeniosidad de los delincuentes en el uso de inteligencia artificial para cometer fraude financiero de alta complejidad, sino también la urgencia de desarrollar contramedidas eficaces.

Durante el engaño, el trabajador creyó estar en comunicación con sus colegas, cuando en realidad interactuaba con avatares digitales falsificados. A pesar de las sospechas iniciales de recibir un correo de phishing, la familiaridad en las voces y rostros deepfake disipó sus dudas, evidenciando la sofisticación y el peligro inherente a esta tecnología. Muchos usuarios de X que comentaron en la noticia, culparon a la falta de protocolos del incidente. ¿En serio? ¿Quién está preparado para eso?


Según las autoridades chinas no es un caso aislado. En un periodo de tres meses, ocho tarjetas de identidad robadas en Hong Kong fueron utilizadas para solicitar préstamos y abrir cuentas bancarias fraudulentas, demostrando la capacidad de los deepfakes para engañar a sistemas de reconocimiento facial y de voz. En México ya se registran intentos basados en voz para usurpación de identidad y mal uso de la misma, tanto en extorsiones como en desfalcos bancarios.

La repercusión de los deepfakes trasciende el ámbito financiero. La difusión de material pornográfico deepfake de Taylor Swift en las redes sociales ha subrayado aún más el potencial dañino de esta tecnología. El caso de Taylor Swift es un caso mediático por la relevancia del personaje, pero actos similares están sucediendo a jóvenes de las que toman sus fotos de redes sociales sin su consentimiento, las transforman con IA, para luego ser distribuidas en grupos de chat.

Este incidente en Hong Kong, pionero en su naturaleza por la magnitud del fraude y la metodología empleada, enfatiza la imperiosa necesidad de implementar medidas de seguridad avanzadas y fomentar la conciencia sobre los peligros asociados al deepfake. Pero no es el único frente abierto.

¿Estamos realmente preparados para enfrentar esta nueva era de falsificaciones digitales avanzadas? La respuesta y la acción que tomemos serán cruciales para proteger nuestra integridad personal y empresarial en un mundo cada vez más digitalizado. Por lo pronto, si no tiene una frase clave secreta con sus colegas y su familia, es momento de pensar en tenerla. ¿Quién iba a decir que en algún momento tendríamos que pedir contraseña (frase clave) a la gente cercana para asegurar la identidad de todos?

También lee: