Tech

¿Te llamó una voz familiar pidiendo dinero? Puede ser fraude: Así funcionan los deepfakes

Con los avances de la Inteligencia Artificial, la tecnología para crear un audio deepfake, es decir, una copia realista de la voz de una persona, se ha vuelto cada vez más común.

Los audios deepfake se utilizan para extorsionar a las personas por medio de una llamada telefónica. (Shutterstock)

Llamadas fraudulentas que usan Inteligencia Artificial para imitar las voces de personas que quizá conozcas están siendo utilizadas para engañar a miembros del público desprevenidos. Estas llamadas utilizan lo que se conoce como IA generativa, que se refiere a sistemas capaces de crear texto, imágenes o cualquier otro medio, como video, en función de las indicaciones de un usuario.

Los deepfakes han ganado notoriedad en los últimos años con una serie de incidentes de alto perfil, como el uso de la imagen de la actriz Emma Watson en una serie de anuncios sugerentes que aparecieron en Facebook e Instagram. También estaba el video ampliamente compartido, y desacreditado, de 2022 en el que el presidente ucraniano Volodímir Zelenski parecía decirles a los ucranianos que “depongan las armas”.

Ahora, la tecnología para crear un audio deepfake, una copia realista de la voz de una persona, es cada vez más común. Para crear una copia realista de la voz de alguien, se necesitan datos para entrenar el algoritmo. Esto significa tener muchas grabaciones de audio de la voz de su objetivo previsto. Cuantos más ejemplos de la voz de la persona pueda introducir en los algoritmos, mejor y más convincente será la copia final.

Muchos de nosotros ya compartimos detalles de nuestra vida diaria en Internet. Esto significa que los datos de audio necesarios para crear una copia realista de una voz podrían estar fácilmente disponibles en las redes sociales. Pero, ¿qué sucede una vez que sale una copia? ¿qué es lo peor que puede pasar?


Un algoritmo deepfake podría permitir que cualquier persona en posesión de los datos haga que “tú” digas lo que quiera. En la práctica, esto puede ser tan simple como escribir un texto y hacer que la computadora lo diga con una voz que parezca la tuya.

Retos mayores de los deepfakes

Esta capacidad abre el riesgo de aumentar la prevalencia de información errónea y desinformación de audio. Se puede utilizar para intentar influir en la opinión pública internacional o nacional , como se ve con los “videos” de Zelenski.

Pero la ubicuidad y disponibilidad de estas tecnologías también plantea desafíos importantes a nivel local, particularmente en la tendencia creciente de las “llamadas fraudulentas de IA”.

Muchas personas habrán recibido una estafa o una llamada de phishing que nos dice, por ejemplo, que nuestra computadora ha sido comprometida y debemos iniciar sesión de inmediato, lo que podría dar acceso a la persona que llama a nuestros datos.


A menudo es muy fácil detectar que se trata de un engaño, especialmente cuando la persona que llama hace solicitudes que alguien de una organización legítima no haría. Sin embargo, ahora imagine que la voz al otro lado del teléfono no es solo un extraño, sino que suena exactamente como un amigo o un ser querido. Esto inyecta un nivel completamente nuevo de complejidad y pánico para el desafortunado destinatario.

Una historia reciente reportada por CNN destaca un incidente en el que una madre recibió una llamada de un número desconocido. Cuando contestó el teléfono, era su hija. Supuestamente, la hija había sido secuestrada y estaba llamando a su madre para pedirle un rescate.

De hecho, la niña estaba sana y salva. Los estafadores habían hecho un deepfake de su voz. Este no es un incidente aislado, con variaciones de la estafa que incluyen un supuesto accidente automovilístico, donde la víctima llama a su familia para pedir dinero para ayudarlos después de un accidente.

Extorsiones con Inteligencia Artificial

Esta no es una estafa nueva en sí misma, el término “estafa de secuestro virtual” ha existido durante varios años. Puede tomar muchas formas, pero un enfoque común es engañar a las víctimas para que paguen un rescate para liberar a un ser querido que creen que está siendo amenazado.

El estafador intenta establecer un cumplimiento incondicional para que la víctima pague un rescate rápido antes de que se descubra el engaño. Sin embargo, el surgimiento de tecnologías de IA poderosas y disponibles ha subido la apuesta significativamente y ha hecho que las cosas sean más personales. Una cosa es colgar a una llamada anónima, pero se necesita mucha confianza en su juicio para colgar una llamada de alguien que suena como su hijo o pareja.

Existe un software que se puede usar para identificar falsificaciones profundas y crear una representación visual del audio llamada espectrograma. Cuando estás escuchando la llamada, puede parecer imposible distinguir la voz falsa de la real, pero esto se puede lograr cuando los espectrogramas se analizan uno al lado del otro. Al menos un grupo ha ofrecido software de detección para descargar, aunque es posible que dichas soluciones aún requieran algunos conocimientos técnicos para su uso.

La mayoría de las personas no podrán generar espectrogramas, entonces, ¿qué puedes hacer cuando no estás seguro de que lo que estás escuchando es real? Al igual que con cualquier otra forma de medios con los que te puedas encontrar: sé escéptico.

Si recibes una llamada de un ser querido de la nada y te pide dinero o te hace solicitudes que parecen fuera de lugar, devuélvele la llamada o envíale un mensaje de texto para confirmar que realmente estás hablando con él.

A medida que se expanden las capacidades de la IA, las líneas entre la realidad y la ficción se difuminan cada vez más. Y no es probable que podamos volver a poner la tecnología en la caja. Esto significa que la gente tendrá que volverse más cautelosa.

Por Oliver Buckey, profesor asociado de Seguridad Cibernética, Universidad de East Anglia.

The Conversation es una fuente independiente y sin fines de lucro de noticias, análisis y comentarios de expertos académicos.

También lee: