Javier Murillo

Transparencia, clave para adoptar la IA

La transparencia es requisito fundamental para generar confianza y adoptar la inteligencia artificial.

La pandemia por coronavirus facilitó de alguna manera el que más personas entendieran qué es la inteligencia artificial, por la cantidad de población que se logró identificar como posibles portadoras del Covid-19 o las zonas de riesgo por la movilidad tangible desde sus dispositivos. Sin embargo, hay quien desconfía de la inteligencia artificial y tiene sentido. Con el deseo de crear los mejores modelos, algunas organizaciones han priorizado la complejidad sobre los conceptos de accesibilidad y confianza. A medida que el mundo se vuelve más dependiente de los algoritmos para tomar una amplia gama de decisiones, las tecnologías y los líderes empresariales y de gobierno tendrán la tarea de explicar cómo un modelo seleccionó su resultado.

La transparencia es un requisito fundamental para generar confianza y adopción de la IA. Mientras tanto, el cumplimiento normativo y la seguridad del modelo también requieren que quienes las aplican diseñen un nivel de interpretación en los modelos. Además, se requiere evaluar los datos que utiliza para asegurarse de que los sistemas no aprendan ni refuercen sesgos inconscientes. (Algo que hemos venido advirtiendo en este espacio). Las organizaciones pueden necesitar aumentar los datos existentes para crear una muestra representativa y tener en cuenta los cambios en las leyes, las normas sociales y el lenguaje.

Los algoritmos de inteligencia artificial permiten a las organizaciones obtener información a partir de datos que antes eran inalcanzables. Sin embargo, la naturaleza de caja negra de estos sistemas significa que no sea tan sencillo para los usuarios comerciales comprender la lógica detrás de la decisión. Incluso los científicos de datos que crearon el modelo pueden tener problemas para explicar por qué su algoritmo tomó una decisión en particular.

Una forma de lograr una mejor transparencia del modelo es adoptar de una familia los más explicables. Los ejemplos de estas familias incluyen modelos lineales, árboles de decisión, conjuntos de reglas, conjuntos de decisiones, modelos aditivos generalizados y métodos de razonamiento basados en casos.

Ahora bien, las empresas y áreas de gobierno también deben tener confianza y transparencia en sus servicios en la nube y los modelos de inteligencia artificial que producen estos servicios. Hay que ver la experiencia de Tracy Frey, directora de estrategia para la IA en la nube de Google, quién se dedica a garantizar que Google Cloud AI sea responsable, reflexivo y colaborativo a medida que continúa avanzando en la inteligencia artificial y el aprendizaje automático. Antes de unirse a Google, trabajó en varias startups en etapa inicial, donde ocupó múltiples roles, incluida la gestión de productos, relaciones con desarrolladores, marketing de productos, desarrollo y estrategia empresarial. En efecto querido lector, hay que prepararse para dar estos servicios.

A medida que avanzamos para adoptar modelos de IA más avanzados con aprendizaje profundo, es necesario que también tengamos herramientas que nos ayuden a identificar y resaltar problemas, no sólo en el momento en que creamos el modelo, sino también a medida que el modelo evoluciona. Así como la gobernanza de datos se ha convertido en una práctica, veremos que las organizaciones crean un rol y adoptan herramientas para la gobernanza de la IA, aunque sólo sea para mitigar el riesgo regulatorio potencial. Si bien llevará tiempo crear una IA más explicable, más 'digerible' para el resto, es alentador ver a tantos tecnólogos en todos los dominios trabajando para resolver el problema. Que tengan éxito.

Fundador y presidente del Consejo de Metrics.

COLUMNAS ANTERIORES

La silenciosa amenaza de la desinformación digital
Meta, bajo ataque por demanda colectiva

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.