Colaborador Invitado

La inteligencia artificial debe ser humana

Con la llegada de la inteligencia artificial se han disparado los miedos a los que nos enfrentan determinados avances tecnológicos.

A lo largo de la historia, se ha dicho a menudo que el factor humano es irreemplazable, pero en los últimos años, el avance agigantado de la tecnología ha puesto en duda esta creencia. Con la llegada de la inteligencia artificial (IA) se han disparado los miedos a los que nos enfrentan determinados avances tecnológicos.

Actualmente, los medios de comunicación están saturados de noticias sobre los problemas de transparencia, ética y seguridad asociados con la IA, lo que genera crecientes preocupaciones sobre su impacto en la sociedad y en el propio concepto de lo humano. ¿Qué es real y qué no? ¿Cómo se ve afectado el significado de la palabra autoría? ¿Qué riesgos relativos a la ciberseguridad se disparan? ¿Cómo se pueden multiplicar los sesgos a medida que las inteligencias artificiales generativas evolucionan?

Estas son sólo algunas de las inquietudes, todas válidas, que desata el desarrollo de esta tecnología, demostrando que, probablemente más que ninguna otra en la historia de la humanidad, nos confronta con nuestros propios miedos porque de alguna manera sentimos que ataca nuestra hegemonía intelectual en el mundo.

Pero, ¿es esta es la única realidad de la IA?

Sin duda alguna, es fundamental abordar estas preocupaciones de manera proactiva mediante el desarrollo de políticas, estándares y salvaguardas adecuadas para garantizar que estas tecnologías se utilicen de manera ética y responsable en beneficio de la sociedad. No obstante, visualizar dichas problemáticas como verdad única es perder de vista todo lo que el avance tecnológico nos ha dado. Abordar la conversación como una falsa dicotomía de tecnología vs. personas hace que quede de lado una verdad irrefutable: la tecnología y la IA han sido creadas por los mismos seres humanos y tienen por objetivo ser una herramienta de apoyo y prolongación.

La clave está en cómo la utilizamos y si hacemos caso a la historia, como con cualquier otro desarrollo tecnológico, podemos estar seguros de que su uso y desarrollo tendrá luces y sombras. La clave está en cuántas luces podemos impulsar y desde el miedo y la distancia es difícil poder influir en que estas tengan lugar.

Humanizando la IA para la experiencia humana

De acuerdo con Publicis, la IA ha aumentado la productividad en el ámbito creativo entre un 30 y 40 por ciento en el desarrollo de softwares permitiendo que las personas se enfoquen en la idea creativa y no tanto en la elaboración del código. En el ámbito financiero, Payments and Commerce Market Intelligence (PCMI) y Kushk pronostican en un estudio que la IA generativa podría mejorar la productividad de la detección del fraude entre 30 y 50 por ciento, al racionalizar las tareas manuales y agilizando procesos diferentes.

Otro claro ejemplo de cómo la IA nos ofrece oportunidades de mejoras en diferentes áreas es Erudit - AI for HR, una plataforma de IA diseñada específicamente para el área de recursos humanos. Esta herramienta utiliza algoritmos de IA para ayudar a las empresas a optimizar sus procesos de reclutamiento, selección, gestión del talento y desarrollo de empleados.

En LLYC estamos comprometidos con el avance social a través de la tecnología y por eso hemos desarrollado también varias iniciativas que tratan de poner el foco en esta visión más humanista de las capacidades de las IA para impulsar sociedades más inclusivas. Por un lado, Rainbot, el primer bot que localiza tuits que contienen mensajes de odio dirigidos a la comunidad LGBTIQ+ y los convierte en breves poemas de apoyo para el colectivo usando IA generativa. Asimismo, concienciados con la igualdad de género, lanzamos The Purple Check, una contribución para medios de comunicación y público en general basada en IA que analiza la existencia de sesgos en titulares y noticias, y hace recomendaciones sobre cómo decir lo mismo para informar sin promover la desigualdad.

La inteligencia artificial, más que ninguna otra tecnología hasta ahora, refleja nuestras inseguridades, nuestros miedos, nuestros sesgos, también nuestras fortalezas. Por supuesto que los estados tendrán que regular para conseguir que estos desarrollos se hagan de la manera más ética y sostenible posible, pero está en manos de todos nosotros que ese reflejo acentúe nuestros aspectos más humanos o nos desdibuje hasta casi no poder reconocernos.

COLUMNAS ANTERIORES

Reality check
Los chats de Norma Piña: Paranoia y autodestrucción

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.