El avance tecnológico es una de las fuentes más importantes de prosperidad en el mundo. Sin embargo, el mismo avance tecnológico puede ser también origen de problemas sociales y causa de miseria para algunos. Vivimos en una época emocionante porque la inteligencia artificial (IA) nos muestra su capacidad de realizar tareas cada vez más impresionantes. También tiene su lado amenazador. Es sorprendente la cantidad de expertos en el tema que han alzado la voz recientemente para advertir acerca de los riesgos de esta tecnología.
En marzo se publicó una carta abierta firmada por más de mil ejecutivos e investigadores relacionados con la inteligencia artificial en la que se pedía una pausa inmediata de seis meses en el desarrollo de los sistemas avanzados de inteligencia artificial. Los firmantes son expertos en el tema y hay ciertos nombres muy destacados como, por ejemplo, Elon Musk, Steve Wozniak, Yoshua Bengio y Daron Acemoglu.
En la carta se afirma que “los sistemas de inteligencia artificial poderosos deben ser desarrollados sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”. Por esta razón, se pide a todos los laboratorios de inteligencia artificial que se pause, al menos por seis meses, el entrenamiento de todos los sistemas de IA más poderosos que el GPT-4.
La idea es usar esa pausa para desarrollar colaborativamente un conjunto de protocolos de seguridad para el diseño de la IA avanzada. Estos protocolos deberían ser auditados por expertos independientes. Además, proponen trabajar en conjunto con los encargados de políticas nacionales para desarrollar un sistema de gobernanza de la IA. Los firmantes preguntan si debemos arriesgarnos a perder el control de nuestra civilización.
Es muy notoria también la voz de Sam Altman ya que la compañía que dirige, OpenAI, es la que ha desarrollado el célebre ChatGPT que tanto entusiasmo y preocupación ha generado recientemente. Altman testificó frente al Congreso en Estados Unidos y afirmó. “Yo creo que si esta tecnología sale mal, puede salir muy mal. Y queremos ser claros al respecto. Queremos trabajar con el gobierno para evitar que eso pase”.
Un peligro destacado por Altman es el de lo que llamó “desinformación interactiva” de cara a las elecciones en Estados Unidos el próximo año. Los sistemas avanzados de IA pueden manipular y persuadir a las personas. Además, tiene la capacidad de generar desinformación en interacciones uno a uno. De acuerdo con Altman, esta es un área de preocupación importante ya que los modelos de IA cada vez son mejores en las tareas que desarrollan.
También resulta muy reveladora la posición de Geoffrey Hinton, una de las personas que más ha hecho avanzar el campo de la inteligencia artificial recientemente. Su trabajo en el campo del aprendizaje profundo (deep learning) fue un punto de inflexión en el desarrollo de la tecnología. Hinton renunció a Google, donde trabajó por una década, para poder hablar libremente acerca de los peligros de la IA. Este investigador ha expresado su preocupación por temas como la desinformación que se expande en la sociedad y la pérdida de trabajos humanos debido a la IA.
La voz de estos expertos es difícil de ignorar. La inteligencia artificial encierra peligros importantes que es importante atender. No obstante, también la forma de enfrentar esta situación encierra su propio peligro. No será fácil regular esta tecnología ya que incluso quienes la están desarrollando son incapaces de comprender claramente su alcance.
Me parece que no es posible, ni deseable, detener el avance de la tecnología. Una regulación demasiado estricta puede llevar a que la tecnología se desarrolle en una cierta clandestinidad lo que les restará control a los reguladores y generará más problemas. Creo que se deben encontrar los mayores peligros y enfocarse en ellos. Un tema recurrente e importante es, por ejemplo, el de la desinformación y la amenaza que representa para la democracia.
La falta de un conocimiento profundo de la tecnología es una debilidad de gobiernos y legisladores cuando intentan mitigar sus posibles efectos negativos. La buena noticia es que hay muchos expertos deseosos de trabajar de forma colaborativa para regular a la industria. Aprovechar su conocimiento y buena disposición es la mejor esperanza que tenemos para, por un lado, mitigar los riesgos de la IA y, por el otro, aprovechar los grandes beneficios que esta tecnología puede traer para la humanidad.