Javier Murillo

La inevitable discriminación de la inteligencia artificial

El autor advierte de un futuro en el que una IA alimentada con información sesgada defina el futuro de las personas, y llama a exigir inclusión y respeto a toda forma de vida y a sus peculiaridades.

La Inteligencia Artificial (IA) se compone de algoritmos (programaciones) que se relacionan entre sí, asimilan información, la incorporan y modifican su comportamiento. Por eso se dice que los algoritmos "aprenden". Son inteligentes.

Ahora pensemos que esos algoritmos se desarrollan para que vayan aprendiendo de la sociedad, para que sean capaces de tomar decisiones que afecten a los seres humanos. ¿Con qué valores y costumbres serían programados? ¿En qué programas y centros de información irían aprendiendo? Seguramente con los de los científicos que viven en sociedades más desarrolladas. Y cuando quisieran incorporarlos a, por ejemplo, economías emergentes, lo harían, quizá, desde las ideas preconcebidas que los científicos programadores tienen acerca de esas comunidades. "Traduttore, traditore".

De esta manera, la IA, de crecimiento exponencial e imparable, iría marginando (con intención o sin ella) las pecularidades de grupos completos. Sustituiría a las verdaderas características de cada persona por ideas generales "de su grupo social". De tan generalista, se volvería totalizadora. Y dejaría fuera todas los rasgos y necesidades del individuo.

Alguna vez leí acerca de una prueba piloto en un juzgado, en el que integraron un programa de IA para que asistiera a los jueces para emitir sentencias. A final de cuentas, el software recomendó que se mantuviera preso a un presunto culpable por ser afroamericano y dejó libre a un caucásico que cometió un delito grave apenas salió de la cárcel.

¿Por qué? Porque la IA se nutre de la información (sesgada) que poseen los sistemas que la alimentan. Y si no exigimos que gobiernos y grupos sociales mantengan una constante vigilancia sobre ella y desarrollen mecanismos de protección para los derechos humanos, probablemente termine erigiéndose como una fuente sistemática de discriminación.

Esto ya fue observado por diversas organizaciones no gubernamentales y fue delineado en la Declaración de Toronto, un documento en el que, básicamente, piden a los Estados que legislen a favor de los derechos humanos frente a la IA. Exigen que sea supervisada, que se le condicione para que sea transparente, que garantice que habrá acceso para todos y que promoverá la igualdad.

Un buen principio para velar por los derechos humanos, una petición más para que se tome en serio la IA y se le regule, esfuerzos que celebro pero que, como he dicho antes, son insuficientes. Cada día es más importante que las ONG, gobiernos, academia, iglesias y todo grupo social se una en esta exigencia de legislación bajo principios de inclusión y respeto a toda forma de vida y a las peculiaridades (individualidad) de los seres humanos.

¿Una IA totalitarista debería tomar decisiones sobre nuestra salud, nuestra vialidad en las calles, sistemas productivos, economía, educación y principios de impartición de justicia? O ¿terminaría construyendo ese Big Brother al que tanto tememos?

Cualquier generalización es peligrosa, aún más la que se puede ejercer la IA, por lo que la propuesta es que se le de un tratamiento diferente a cada individuo. Que se analice su perfil, su historia, sus circunstancias y a partir de eso se determinen derechos personalizados.

En un futuro no muy lejano, cada humano debería tener su propio algoritmo, que lo representara en ese inmenso mar de algoritmos del resto del mundo. Cuando eso suceda y la IA evolucione para integrarnos a todos, entonces podremos decir que estará (verdaderamente) trabajando para cada uno de nosotros y para todos.

COLUMNAS ANTERIORES

Empoderamiento femenino en la ciencia de datos
La disputa de Musk contra OpenAI

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.