Tech

Ni la IA se salva: Cientos de miles utilizan nombre de ChatGPT para actividades maliciosas

Los cibercriminales se aprovechan de una interfaz con la que pueden estafar a usuarios de OpenAI al suplantar la identidad de ChatGPT.

Ciertas funciones de ChatGPT pueden ser aprovechadas para fines maliciosos. (Bloomberg)

En el segundo semestre del año pasado, y luego de haberse convertido en un fenómeno mundial, ChatGPT comenzó a tener cientos de miles de intentos de suplantación de identidad con fines maliciosos para aprovechar la intención de búsqueda de la principal plataforma de inteligencia artificial.

Así lo dio a conocer ESET, compañía líder en detección de amenazas vía web, quien dijo que se encontraron diferentes aplicaciones que “manejaban de forma insegura las claves API (Interfaz de Programación de Acciones) de OpenAI, y extensiones maliciosas del navegador Google Chrome (uno de los más populares del mundo) para ChatGPT.

Las claves API, que son las que se utilizaron de forma maliciosa, es un identificador que autoriza y autentica a los usuarios y desarrolladores, así como programadores de llamada, además de que controla el acceso a ChatGPT y de paso limita la cantidad de información que se puede recibir.

Estas claves se utilizan para servicios web y aplicaciones móviles para obtener datos en tiempo real, como lo hacen las aplicaciones del clima o mapas, además de contribuir al funcionamiento de las plataformas de pagos en páginas web.


En el caso de OpenAI, propietaria de ChatGPT, algunos servicios API son de paga y otros gratuitos, y se caracterizan porque el usuario final genera un token que se factura al proyecto en el que se haya incorporado la API. El usuario en realidad no necesariamente debe conocer esta información, que de hecho puede sonar compleja; sin embargo, ESET explica que los desarrolladores deben darle el mayor cuidado posible, sobre todo a la hora de incluir servicios de terceros.

Es en ese sentido cuando los delincuentes cibernéticos se han intentado robar claves API legítimas de OpenAI, y en el segundo semestre del año pasado se reportaron 650 mil intentos de acceder a dominios maliciosos, mismos que, según ESET, hacían referencia con ChatGPT y tenían el objetivo de suplantar la identidad del sitio web real.

“No es la primera vez que se observa que la popularidad de este chatbot es aprovechada por cibercriminales para atraer usuarios de OpenAI: sitios falso de ChatGPT, extensiones maliciosas para navegadores, aplicaciones que distribuyen troyanos para el robo de información bancaria”, explicó ESET.

También lee: