Colaborador Invitado

Regular la IA mediante enfoques compartidos, seguros y sostenibles

Regular la Inteligencia Artificial no es una tarea sencilla, sin duda representa un gran desafío, pero resulta imprescindible para garantizar que su desarrollo traiga beneficios reales para la sociedad mexicana.

La Inteligencia Artificial (IA) está revolucionando nuestro mundo de maneras asombrosas, sin embargo, para aprovechar al máximo esta tecnología y asegurarnos de que sea ética y beneficiosa para todos, es fundamental colaborar en su regulación.

Hasta ahora, hemos sido testigos de cómo las computadoras y el Internet han transformado nuestras vidas, no obstante, la IA nos adentra en un territorio desconocido donde debemos afrontar desafíos y riesgos al emplearla. En México, este debate cobra especial relevancia ante su creciente uso en ámbitos clave. Por ello, conscientes de esta realidad, en 2021 el Senado presentó una iniciativa para regular el uso de la IA en el país.

Esta propuesta busca establecer un marco legal para la utilización de la IA en diversos sectores como la salud, la educación y la seguridad. Asimismo, plantea la creación de un Consejo Nacional de Inteligencia Artificial que se encargue de diseñar políticas y normas para su uso responsable en nuestro país.

Pero, ¿cómo se llega al estado ideal de seguridad en el uso de la IA? Regular la Inteligencia Artificial no es una tarea sencilla, sin duda representa un gran desafío, pero resulta imprescindible para garantizar que su desarrollo traiga beneficios reales para la sociedad mexicana. Para lograrlo, es necesario contar con un enfoque colaborativo, donde debemos establecer una infraestructura global integrada y optimizada que pueda beneficiar a todo el ecosistema digital y reducir los costos. Al aplicar un enfoque de este tipo, pero de manera efectiva, podemos evitar que la IA funcione aislada de otros dominios tecnológicos importantes, como la privacidad, los datos y la nube.

Paralelamente, debido a la complejidad inherente de la mayoría de los sistemas de IA, las reglas de transparencia deberían presentar qué datos utilizó el sistema de IA, quién lo creó y qué herramientas se utilizaron, sin tratar de explicar el funcionamiento interno de la tecnología. Esto para establecer confianza en el ecosistema que la creó, y a su vez, generar confianza con los usuarios de los sistemas de IA.

Por último, con el aumento del procesamiento de datos de IA, aumentan los requisitos de rendimiento y uso de energía del centro de datos. Por lo tanto, debemos establecer protocolos para la infraestructura de hardware de IA que promuevan altos estándares y respalden la innovación en las industrias. Sumar estos esfuerzos y aprovechar importantes fuentes renovables puede garantizar que los modelos de IA resuelvan más desafíos de los que crean.

Además, al considerar la regulación de la Inteligencia Artificial, es importante tener en cuenta dos aspectos clave: la calidad de los datos y la naturaleza probabilística de los algoritmos. La IA encuentra patrones, no certezas, por lo que debe complementar al equipo de trabajo humano. Trabajando en conjunto, se pueden minimizar los falsos positivos y los falsos negativos, maximizando así los beneficios de la IA de manera ética y responsable.

Es nuestra responsabilidad colectiva dar forma al futuro de la IA a través de una regulación que equilibre la innovación, el bienestar social y la preservación de los derechos individuales. No existe ningún proyecto de IA en el mundo que se base en una sola tecnología, al abarcar almacenamiento y redes, computación e integración de requisitos, todo esto sustentado en la seguridad y la confianza. Por lo que, con un enfoque compartido, seguro y sostenible, es posible maximizar colectivamente el potencial de la IA para beneficiar a todos.

COLUMNAS ANTERIORES

El mal de montaña, síndrome del poder político
Inversiones que tienden puentes

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.