Javier Murillo

Que la ética cale hasta el código

Dentro de algunos años, a cada paso que demos, encontraremos un dilema ético frente a la IA, considera Javier Murillo, Fundador y Presidente del Consejo de Metrics.

La ética, esa disciplina que estudia el bien y el mal, que analiza la moral y el comportamiento humano será la pieza clave de la convivencia con la Inteligencia Artificial (IA). Por la dificultad que esto conlleva, se dice que es comparable con otros grandes retos científicos, como ha sido explicar el origen del universo o la estructura de la materia.

Dentro de algunos años, a cada paso que demos, encontraremos un dilema ético frente a la IA. Por ejemplo, si ya hay asistentes de salud sintéticos y programados para atender a los humanos porque son incansables y entregados, ¿Qué o quién debe regular el papel de esos enfermeros?

Ahora imagine que la IA, dentro de unos cuantos años, supondrá la interacción humana con dispositivos que hoy no podemos ni imaginar, pero que estarán presentes en los espacios productivos (es decir, en el trabajo del futuro), en los hogares, en los hospitales, en la infraestructura pública y en todo círculo social. ¿En qué nos guiaremos para regularlos?

Uno de los miedos actuales es que surja el Estado totalitario y asfixiante que George Orwell pintó en su novela "1984": el Big Brother, omnipresente y omnipotente, controlando cada aspecto de la vida de los ciudadanos. Pero ya hay algunas similitudes. Somos vigilados, en la vía pública, por sistemas de cámaras conectados con estaciones de policía. Ya pueden reconstruir nuestro día y precisar nuestra ubicación por las aplicaciones que abrimos y usamos. Hackear nuestro teléfono y correo para obtener datos personales. Si vamos a un laboratorio pueden hacernos una prueba genética que revele nuestro historial médico y familiar.

Pensar en ética en este estado incipiente de la IA aunque puede parecer exagerado, es fundamental porque hay casos como el de las redes sociales que ponen en entredicho lo que es o no ético: han dejado en manos de la IA la sugerencia de temas que nos proponen leer, ver, coleccionar y consumir. La cuestión es que ese algoritmo está sesgado, pues recibe dinero de entidades que construyen contenidos y quieren difundirlos al máximo.

Las preguntas, en este punto, son muchas: ¿A todos ellos quién los regula?, ¿En dónde están las leyes que protegen al ciudadano frente a cualquier agenda?, ¿Qué conceptos éticos deben prevalecer frente a la disrupción tecnológica? Cada acción y sus consecuencias implicarán un dilema en el que la respuesta impactará en el bien colectivo y en el bienestar individual.

Por lo mismo, si la vida humana dependerá tanto de la IA, ¿No sería mejor que los códigos de la IA más estratégica fueran transparentes para que ningún fabricante pudiera establecerse como el gran controlador de vidas en el mundo?

Si los humanos en general no nos podemos poner de acuerdo en el sentido común, pretender que la IA tenga una línea ética basada en este sentido, es más que peligroso. Por lo mismo, entre los esfuerzos que se han llevado a cabo a escala mundial en temas de IA y ética, en 2017 se firmó la "Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa". Entre otras cosas, esta declaración destaca seis reglas que se deberían estandarizar para el uso de la IA: prudencia, fiabilidad, rendición de cuentas, responsabilidad, autonomía limitada y el papel del ser humano.

Entre más pronto comencemos a regular la IA, más preparados estaremos para afrontar ese futuro automatizado e hipertecnológico. Y la ética es la puerta de abordaje.

COLUMNAS ANTERIORES

La silenciosa amenaza de la desinformación digital
Meta, bajo ataque por demanda colectiva

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.