Tech

¿ChatGPT mentiroso? Información falsa hecha con IA es la mayor amenaza mundial

Los bots que utilizan inteligencia artificial como ChatGPT pueden crear contenido artificial o falso que puede contribuir a la manipulación de las personas, señalan especialistas.

La creación de contenido falso con motores como ChatGPT puede manipular a grupos de personas, advierten. (AP)

La información falsa y engañosa potenciada por inteligencia artificial de última tecnología, que amenaza con erosionar la democracia y polarizar la sociedad, es el mayor riesgo inmediato para la economía global, indicó el Foro Económico Mundial en un reporte este miércoles.

En su último Informe de Riesgos Globales, la organización también dijo que una serie de riesgos medioambientales plantean las mayores amenazas en el largo plazo. El informe se publicó antes de la reunión anual de élite de ejecutivos y líderes mundiales en la localidad suiza de Davos, y se basa en un sondeo a casi mil 500 especialistas, líderes de industrias y legisladores.

El reporte identificó la desinformación como el riesgo más grave para los dos próximos años y destacó cómo los rápidos avances en tecnología también crean nuevos problemas o empeoran otros previos.

Los autores temen que la proliferación de bots conversacionales de IA generativa como ChatGPT hagan que la creación de contenido artificial que pueda manipular a grupos de personas ya no se vea limitada a personas con habilidades especializadas.


La inteligencia artificial será un tema clave en las reuniones de Davos la semana que viene, a las que se espera asistan jefes de compañías como Sam Altman, director general de Open AI; Satya Nadell, director general de Microsoft, y personas influyentes del sector como el jefe de IA en Meta, Yann LeCun.

La desinformación producida por la inteligencia artificial se convierte en un riesgo justo cuando miles de millones de personas en muchos países, incluidas economías importantes como Estados Unidos, Reino Unido, Indonesia, India, México y Pakistán tienen previsto votar este año o el siguiente, señaló el informe.

“Uno puede recurrir a la IA para hacer videos manipulados y para tener un impacto en grupos grandes, lo que impulsa mucho la desinformación”, dijo Carolina Klint, jefa de manejo de riesgo en Marsh, cuya compañía matriz, Marsh McLennan, coescribió el reporte junto con Zurich Insurance Group.

“Las sociedades podrían volverse más polarizadas” conforme la gente encuentra más dificultades para verificar los hechos, señaló. La información falsa también podría utilizarse para fomentar dudas sobre la legitimidad de gobiernos electos, “lo que supone que los procesos democráticos podrían verse erosionados y también impulsaría la polarización social más aún”, advirtió Klint.

El auge de la IA plantea toda una gama de riesgos adicionales, señaló. Puede dar poder a “actores maliciosos” al facilitar los ciberataques, por ejemplo al automatizar intentos de phishing o al crear software dañino avanzado.

Con la IA, señaló, “no hace falta ser el más avispado para ser un actor malicioso”, dijo Klint.

Puede incluso contaminar datos recopilados de internet para entrenar a otros sistemas de IA, lo que es “increíblemente difícil de rectificar” y podría reforzar sesgos en los modelos de IA, indicó.

La otra gran preocupación global de los encuestados giraba en torno al cambio climático.

Por detrás de la desinformación, el clima extremo es el segundo riesgo más apremiante.

En el largo plazo —definido como 10 años— el clima extremo se describió como la amenaza número uno, seguida de otros cuatro riesgos asociados al medio ambiente: un cambio crítico en los sistemas de la tierra, pérdida de biodiversidad, colapso de los ecosistemas y escasez de recursos naturales.

“Podríamos sobrepasar ese punto de inflexión irreversible del cambio climático” en la próxima década conforme los sistemas de la tierra experimentan cambios de largo plazo, apuntó Klint.

También lee: