Académico de la Facultad de Ingeniería de la Universidad Panamericana

La Ley de Inteligencia Artificial: ¿Un freno a la innovación o el inicio de una era de IA segura y ética?

Esta legislación se produce en respuesta a una serie de desarrollos significativos en el campo de la IA que han tomado al mundo por sorpresa durante la primera mitad del 2023.

El Parlamento Europeo ha presentado recientemente el primer borrador de una legislación clave conocida como la Ley de Inteligencia Artificial (AI Act). Esta legislación se produce en respuesta a una serie de desarrollos significativos en el campo de la IA que han tomado al mundo por sorpresa durante la primera mitad del 2023. Innovaciones como ChatGPT y otras tecnologías de IA generativa han demostrado el poder y la versatilidad de la IA, impulsando la necesidad de una regulación adecuada.

El AI Act pretende ser una de las primeras grandes iniciativas legislativas sobre IA por parte de las naciones líderes en el campo tecnológico. Tiene la intención de establecer un marco legal para el uso y desarrollo de la IA, incluyendo estándares éticos y de seguridad. Este marco podría tener implicaciones significativas para todo el mundo, no solo para Europa, y particularmente para países como México.

Es útil recordar cómo el Reglamento General de Protección de Datos (GDPR) ha transformado nuestra relación con Internet. De manera similar, el AI Act tiene el potencial de cambiar nuestra interacción con las tecnologías basadas en IA. El GDPR ha tenido un impacto global, imponiendo sanciones a aquellos que infringen las regulaciones de protección de datos de los usuarios europeos, independientemente de su ubicación geográfica. Si el AI Act se implementa de manera similar, podría tener un alcance similarmente amplio.

La propuesta legislativa del AI Act aborda varios puntos críticos. Propone límites al uso de la IA para el reconocimiento de emociones y la identificación de individuos en espacios públicos, regula intensivamente las recomendaciones en las redes sociales, y propone una regulación estricta para las herramientas de IA generativa como ChatGPT. Según las reglas propuestas, ninguna herramienta de IA generativa estaría en conformidad, y no existe un camino claro para que estas tecnologías cumplan con las regulaciones sin perder su ventaja competitiva.

Además, los algoritmos de recomendación de grandes empresas tecnológicas, como Meta y Twitter, tampoco cumplirían con la regulación tal como está propuesta. Esto plantea desafíos significativos para estas plataformas y podría requerir cambios en cómo operan y utilizan la IA.

Si bien México no está en Europa, no debemos subestimar la importancia de estas regulaciones. Si se aprueba una legislación tan estricta en el ámbito de la IA, podría afectar a cientos, si no miles, de empresas que se arriesgan a infringir los derechos de los ciudadanos de la Unión Europea. Este tipo de regulaciones podría ralentizar el desarrollo de la IA, mientras que en lugares como China, donde no existe tal legislación, las empresas podrían seguir avanzando sin restricciones.

Estas restricciones también podrían aumentar la brecha tecnológica en México al limitar el desarrollo de herramientas basadas en IA. Es esencial seguir de cerca estos acontecimientos para entender cómo la IA está evolucionando a nivel mundial y prepararse para los cambios y desafíos que podrían surgir a medida que estas nuevas regulaciones toman forma.

Boom de las consultoras

Se espera que ante el auge de la IA generativa en estos años, muchas empresas recurran a consultoras para que les ayuden a desarrollar sus problemas, es importante que las empresas tengan cuidado con temas como la privacidad y la capacidad real de estos modelos que tienen de equivocarse.

COLUMNAS ANTERIORES

Luchas artísticas, puede la humanidad seguir creando sin AI
El debate global sobre la IA: ¿Estamos frenando el progreso con regulaciones?

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.