Cada vez más frecuentemente escuchamos el uso de aplicaciones de la Inteligencia Artificial (IA) en el sector financiero mexicano. Las instituciones financieras tradicionales en competencia con la nueva ola de Fintechs están adoptando técnicas y herramientas derivadas de esta ola masiva de innovación. Sin embargo, no todo el panorama es completamente optimista y existen algunos riesgos y obstáculos que debemos tener en cuenta. ¿Qué consideraciones deben tener las instituciones financieras a medida que adoptan la IA?
Se debe reconocer antes que nada las inmensas innovaciones que está permitiendo la ola de IA en el sector financiero. Algunas de éstas son: la creación de herramientas de calificación de riesgos para otorgar créditos que buscan aumentar y mejorar la calidad de la cartera crediticia, las innovaciones en procesos que automatizan la captura y recepción de documentos, los modelos entrenados para la detección de fraudes, los chats y bots virtuales que buscan facilitar y diferenciar solicitudes de clientes sencillas de otras más complejas, las herramientas de asesores robóticos que seleccionan carteras de inversión de forma automática, entre muchas otras. No se pueden negar estas enormes ventajas, así como tampoco se pueden minimizar varios riesgos y consideraciones éticas importantes.
Algunos ejemplos para su consideración:
Sesgos Algorítmicos: Los modelos de IA están basados en bases de datos históricas de tamaño y complejidad considerable. Sin embargo, muchas veces esta información refleja los sesgos de comportamiento, prejuicios y apreciaciones de los humanos que tomaron alguna decisión. También puede pasar que la información misma contiene relaciones muy complejas que la IA aún no puede distinguir y juzgar apropiadamente. A modo de ejemplo, se ha detectado en Estados Unidos que muchos robots que otorgan créditos hipotecarios están discriminando contra las minorías afroamericana y latina.
Esto se debe a que históricamente, estas poblaciones han estado en condiciones de precariedad que disminuyen su capacidad de pago de un crédito. La IA simplemente asoció las variables de baja capacidad de pago con la etnicidad y ha generado calificaciones que castigan el origen étnico. Si además la herramienta se alimentó de decisiones humanas que contenían prejuicios, entonces estos sesgos se perpetúan. Las instituciones financieras deben auditar regularmente sus modelos de IA de créditos para detectar y corregir sesgos. Además, sería conveniente asegurar una diversidad en los equipos de desarrollo de las herramientas para evitar de origen estas fallas.
Privacidad de Datos: La búsqueda de modelos de IA que puedan vencer a la competencia requiere frecuentemente de fuentes de información considerable. En el caso del sector financiero, se puede necesitar acceso a la información de riqueza, propiedades, empleo, etc. es altamente conveniente. Sin embargo, la recopilación y el uso de datos personales puede exponer a los mismos clientes de la institución a violar su derecho a la privacidad. El más evidente de los escenarios negativos es el riesgo de ciberseguridad, dónde la información sea robada por piratas con herramientas IA altamente sofisticados.
Si bien las instituciones financieras buscan cumplir con estos lineamientos, la información cada vez más amplia hace difícil asegurar la privacidad del cliente. Peor aún, las entidades financieras deberían considerar en su planeación de escenarios potenciales uno donde la información de sus clientes sea obligada a entregarse por autoridades que decidan que la privacidad ya no es importante. Las empresas deben obtener el consentimiento informado de los clientes y garantizar que los datos se utilicen de manera ética y legal.
Consideraciones Éticas: Este es un escenario de ciencia ficción que eventualmente deberá ser considerado por todas las empresas, instituciones e autoridades; Un automovilista debe decidir si sale del camino y pierde la vida o arrolla y mata a un peatón. Este escenario se va modificando con diferentes supuestos, cómo que el peatón es un niño o un adulto mayor, si hay múltiples peatones, si el auto trae pasajeros, etc.
La idea del escenario es demostrar como muchos principios éticos pueden ser vistos desde una perspectiva diferente. ¿Por qué le importa a la IA? Sustituya al automovilista humano por un robot. Se le tiene que entrenar en principios éticos y situaciones diferentes para su reacción, la decisión de la cual es ambigua muchas veces. Es indudable que eventualmente, este tipo de situaciones crearán un ambiente legal complejo, dónde la responsabilidad de la decisión deberá recaer en alguien.
En conclusión, la IA tiene el potencial de revolucionar el sector financiero al mejorar la eficiencia, reducir costos y mejorar la experiencia del cliente. Sin embargo, es fundamental abordar múltiples riesgos y consideraciones éticas para garantizar un futuro financiero más justo y seguro para todos.
El autor es economista y Director de Programa para la Licenciatura en Finanzas de la Escuela de Negocios del ITESM Campus Monterrey.
Contacto: rfenton@tec.mx