La iniciativa de ley federal para regular la inteligencia artificial, impulsada por Ricardo Monreal, tiene el mérito de poner la mirada en uno de los temas que dominarán la conversación en los próximos años. A algunos podrá parecerles prematuro pretender regular lo que apenas asoma como ‘la nueva gran amenaza’, pero si no es ahora, posteriormente cualquier medida será extemporánea. Como siempre, el reto es cómo sortear los riesgos sin perder los grandes beneficios que esta tecnología promete.
En general, el proyecto trata de adecuar a nuestro marco jurídico algunas de las regulaciones que en otras partes del mundo se han dictado, tratando de contener los efectos ya identificados como perniciosos de la inteligencia artificial. De hecho, para efecto de su tratamiento diferenciado, clasifica los riesgos asociados a la IA como de bajo riesgo, de alto riesgo y de riesgo inaceptable. En esta última categoría se incluyen aquellos usos que puedan provocar graves perjuicios psicológicos o físicos a las personas, así como los orientados a la identificación biométrica. Una manera de ejemplificar este punto es la tecnología empleada en lugares públicos para realizar escaneo de todas las personas que se ubican en un punto. Ello permitiría poder rastrear a cada individuo en sus movimientos cotidianos de forma automatizada.
Bajo esta lógica, el proyecto establece la prohibición de vender o usar sistemas de IA de riesgo inaceptable que alteren de cualquier forma archivos de voz o imagen de cualquier persona sin su autorización. La intención evidente de la disposición es impedir el plagio de la imagen de una persona que pueda realizarse desde rubros como la publicidad de un producto, hasta la suplantación para diversos fines delictivos. Todos conocemos ya historias de terror en las que el llamado deep fake ha generado toda clase de desfalcos, fraudes y engaños.
Como toda ley que se precie de regular inteligencia artificial, el proyecto incluye la obligación de advertir que cierto contenido, trátese de textos, imágenes o sonidos han sido producidos por IA generativa como una forma mínima de protección a los consumidores que, se espera, pueda repercutir en que los autores humanos sigan siendo preferidos por los destinatarios de los mensajes. Además, la ley establecería que tal advertencia deberá también acompañar la petición de registro de la obra resultante, a fin de que la autoridad pueda acordar si existe aún “aporte humano sustancial” para fines de su protección.
Finalmente, una disposición que resulta ser la más polémica de la iniciativa es la que determina que los desarrolladores y proveedores de sistemas de IA que utilicen para entrenamiento bases de datos creadas por terceros sólo podrán utilizar esa información mediante acuerdo previo con los titulares de los derechos de propiedad intelectual correspondientes. Esta disposición, de alcances incalculables, se está adelantando a una disputa que en el mundo aún no se define (litigio NY Times vs. ChatGPT y Microsoft), que pondría en tela de juicio la viabilidad misma de la IA generativa. Honestamente, me parece que los redactores de la ley fueron demasiado lejos con semejante precepto.
Como todas las leyes, se dirá, son perfectibles y es bueno empezar con esta pieza. Sin embargo, tratándose de una tecnología que golpeará transversalmente a todas las industrias, el reto es inmenso. Aquí no tenemos margen de error.