Esta semana Sam Altman, el CEO de Open AI, la empresa detrás del famoso ChatGPT, testificó frente al Comité Judicial del Senado, acerca de los riesgos que entrañan los más recientes avances en materia de inteligencia artificial (IA).
A diferencia de lo que ha sucedido en las comparecencias en el Capitolio con las cabezas de las empresas que dominan las redes sociales como Mark Zuckerberg de Meta (antes Facebook) o Jack Dorsey, primero, o Elon Musk de Twitter, ahora, el alto ejecutivo propuso directamente trabajar de la mano con el gobierno para ser regulados.
No desechó la autorregulación, pero claramente señaló la necesidad y pertinencia de una amplia regulación gubernamental, incluso proponiendo la creación de una agencia con poderes para expedir licencias de uso e inclusive el poder para retirarlas a quien no cumpla los estándares éticos y de transparencia que se determinen.
La idea, en la que coinciden muchos expertos, es la de crear una agencia que de manera similar a las entidades que regulan las medicinas o las afectaciones al medio ambiente puedan actuar y tener dientes.
Una asignatura pendiente es explorar la percepción de riesgo existente en la opinión pública sobre los posibles impactos negativos de un uso desbocado o irresponsable de esta poderosa tecnología, pero lo que es cierto, es que cada día se generan múltiples visiones distópicas que llegan a hablar de la extinción de la humanidad a causa de la emergencia de computadoras más inteligentes que nuestra especie y que podrían querer dominarnos.
En este marco narrativo, Altman fue muy claro al señalar que las novedosas herramientas de inteligencia artificial basadas en machine learning “son herramientas y no creaturas”, afirmación con la cual buscó ubicar el problema en una dimensión donde los humanos tenemos el control.
Le pregunté al propio ChatGPT si debiera prohibirse el uso e implementación de la inteligencia artificial y esto me contestó:
“La pregunta sobre si la inteligencia artificial debe prohibirse es un tema controvertido y amplio que genera diferentes opiniones y perspectivas en la sociedad. No hay una respuesta única o definitiva, ya que la IA tiene tanto beneficios como desafíos.
“La inteligencia artificial tiene el potencial de impulsar avances significativos en muchos campos, como la medicina, la industria, la agricultura y la investigación científica. Puede ayudar a resolver problemas complejos, automatizar tareas repetitivas, mejorar la eficiencia y proporcionar nuevas oportunidades.
“Sin embargo, también existen preocupaciones legítimas en torno al desarrollo y la implementación de la IA. Algunas personas argumentan que la IA podría tener consecuencias negativas, como la pérdida de empleos, la violación de la privacidad, el sesgo algorítmico o incluso un potencial riesgo para la humanidad si no se gestiona adecuadamente (nota personal: es decir, que el riesgo reside en que una entidad diferente a la humana sea la más inteligente en el planeta y por lo tanto pueda controlarnos).
“En lugar de una prohibición completa, muchos expertos sugieren una regulación y supervisión adecuadas de la IA. Esto implica establecer estándares éticos y de seguridad, promover la transparencia en los algoritmos, garantizar la responsabilidad y la rendición de cuentas de las organizaciones y fomentar una colaboración entre los sectores público y privado para abordar los desafíos y maximizar los beneficios de la IA.
“En última instancia, la decisión sobre si prohibir o no la inteligencia artificial debe basarse en una evaluación exhaustiva de los riesgos y beneficios, así como en un diálogo inclusivo y participativo que involucre a expertos en IA, legisladores, científicos, éticos y a la sociedad en general”.
Salta a la vista que hemos aprendido de los estragos que puede causar el mal uso de estas herramientas, donde la desregulación del internet y las redes sociales han contribuido enormemente a la polarización y la emergencia de las fake news y la posverdad.
Desde un plano más histórico y filosófico, Yuval Noah Harari nos llama la atención sobre estas “nuevas herramientas de inteligencia artificial, que amenazan la supervivencia de la civilización humana desde una dirección inesperada. La IA ha adquirido algunas habilidades notables para manipular y generar lenguaje, ya sea con palabras, sonidos o imágenes, con lo cual ha pirateado el sistema operativo de nuestra civilización”, y se pregunta “¿qué pasará con el curso de la historia cuando la IA se apodere de la cultura y comience a producir historias, melodías, leyes y religiones?”.
Lo que nos distingue de las otras especies animales es la palabra, la polisemia de nuestro lenguaje (el lenguaje de otras especies animales, se limita a señales con significados fijos e inmutables).
La sociedad es una realidad que habla, diría mi querido maestro Jesús Ibáñez, lo que hoy discutimos es si la humanidad está en riesgo de perder el monopolio del lenguaje que crea mundos, historias, leyes e incluso lenguaje computacional (la IA tiene capacidad de traducir texto a código).
Es evidente que debemos regular con cuidado a la inteligencia artificial, el resultado demostrará qué tan inteligentes somos como sociedad.
El autor es CEO Founder LEXIA Insights & Solutions.