Empresas

ChatGPT daría ‘mejores ideas’ a estafadores para realizar ciberdelitos

El ChatGPT ha propiciado el desarrollo de malware básico pero tiene potencial para ser usado por estafadores, señalaron especialistas.

El chat de inteligencia artificial de OpenAI podría tener su parte negativa con los ciberdelitos. (Shutterstock)

ChatGPT abrirá pasó a los ciberdelincuentes para generar ataques pishing, malware o ransomware más sofisticados y difíciles de detectar, así lo advirtieron expertos en ciberseguridad, quienes alertaron que ya han detectado los primeros casos en donde se utilizó este software de inteligencia artificial (AI).

“ChatGPT ha sido utilizado por ciberdelincuentes poco cualificados para desarrollar malware básico, pero vemos un alto riesgo de que sea utilizado por estafadores para desarrollar scripts de phishing que se utilizarán como parte de correos electrónicos de phishing y estafas de aplicaciones de citas”, comentó Satnam Narang, ingeniero de Investigación Tenable.

Durante las últimas semanas, ChatGPT, un sistema de chat con inteligencia artificial creado por OpenAI, ha cobrado popularidad entre los internautas de todo el mundo por su capacidad de responder cualquier cosa que le pidas, gracias a los algoritmos con la cual ha sido programada. Lo sorprendente de este chat, es que puede dar respuestas muy acertadas y completas, además de expresarse de manera natural.

Según el experto de Tenable, firma especializada en exposición cibernética, si bien ChatGPT no tiene la capacidad para desarrollar una pieza profesionalizada de ransomware u otro software malicioso, es capaz de proporcionar las bases para que un ciberdelincuente poco cualificado inicie sus esfuerzos y se encamine hacia el éxito.


ChatGPT podría ayudar a llenar el vacío cuando se trata de escribir biografías más convincentes para perfiles falsos e incluso puede desarrollar textos perfectamente escritos que después serán enviados por correo electrónico que harán imposible detectar de forma inmediata que se trata de un intento de estafa cibernética”, expuso Satnam Narang.

Incluso, señala que ChatGPT podría utilizarse para ayudar a facilitar los guiones utilizados por los estafadores de apps de citas cuando intentan convencer a sus víctimas potenciales para que inviertan dinero o en criptomonedas.

“No es del todo imposible, pero es poco probable que ChatGPT desarrolle una pieza profesionalizada de ransomware u otro software malicioso, sin embargo, puede proporcionar las bases para que un ciberdelincuente poco cualificado inicie sus esfuerzos y se encamine hacia el éxito”, concluyó el analista de Tenable.

También lee: