Colaborador Invitado

IA generativa y mitigación de riesgos

La solución para gestionar los riesgos relacionados con la IA depende de que las partes interesadas unan fuerzas para promover una legislación completa.

José Larroque, socio administrador de Baker McKenzie México

A pocos meses de su lanzamiento, ChatGPT se ha convertido en una de las herramientas de inteligencia artificial (IA) más reconocidas en todo el mundo, debido a que empresas y particulares están ansiosos por aprovechar su potencial. A pesar de que el progreso y la adopción de la IA está ocurriendo a un ritmo exponencial, esta evolución también ha evidenciado la falta de supervisión estratégica y de principios de gobernanza que, hoy más que nunca, son necesarios para lograr un verdadero uso responsable de la tecnología.

Académicos, científicos, legisladores, profesionales del derecho y expertos en tecnología coinciden que la prioridad debería estar enfocada en el uso y despliegue ético de la IA, así como en trabajar normativas y un marco legal que permitan lidiar con los problemas que ya se están presentando en diferentes sectores; por ejemplo, la IA generativa ha generado alerta en torno a la propiedad intelectual al plantear interrogantes sobre los derechos de autor y la confidencialidad. Si un usuario o empresa utiliza estas herramientas e ingresa información confidencial a la plataforma podrá hacerla visible a un número ilimitado de personas, lo que podría constituir una violación a las obligaciones contractuales o las leyes de secreto comercial e información privilegiada.

Tan solo en este ejemplo encontramos un sinfín de peligros que podrían mitigarse a través de una supervisión adecuada del uso de ChatGPT en los negocios. Prácticamente toda toma de decisiones ya sea basada en IA o no, crea sesgos y el problema yace en que al utilizar esta tecnología sería fácil disfrazar las decisiones. Por esta razón, antes de implementar un uso masivo, las empresas deberían desarrollar un marco para evaluar estos sesgos, además de mecanismos de comprobación que eviten prácticas ilegales y que garanticen los requisitos de privacidad.

Lamentablemente, la realidad es que muchas organizaciones no están preparadas. La encuesta IA para América del Norte 2022 de Baker McKenzie encontró que los líderes empresariales subestiman estos riesgos en su urgencia por implementar esta tecnología.

Por otro lado, los litigios ya se encuentran en el horizonte; en Estados Unidos se presentó la primera ola de disputas contra el chatbot PI y, en ausencia de la regulación existente, estas primeras decisiones judiciales están dando forma al panorama legal, lo cual debería poner en alerta a las autoridades de todo el mundo para trabajar en el marco legal que ayude a cimentar el futuro de una regulación formal.

Al plantear una normativa, se ha hablado de que su cumplimiento debe ser un compromiso compartido entre el gobierno y las empresas, por lo que también, como líderes, es nuestra responsabilidad auditar constantemente nuestras operaciones y las que tenemos con terceros. Para lograrlo será necesario establecer estructuras sólidas de gobernanza y supervisión que permitan seguir un marco de gobierno interno, todo con el fin de resistir las mareas tecnológicas y continuar mitigando peligros.

La solución para gestionar los riesgos relacionados con la IA depende de que las partes interesadas del sector legal, regulatorio y privado unan fuerzas para promover una legislación completa, así como los códigos de práctica o los marcos de orientación que reconozcan tanto las oportunidades, como los riesgos que presenta cada nueva tecnología. Con un marco seguro implementado, las organizaciones podrán aprovechar libremente los avances de IA y explotar sus beneficios con la confianza de que la ley los respaldará de ser necesario.

COLUMNAS ANTERIORES

2025, un año retador para los bancos centrales
Antesala del 2025

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.