El reconocimiento facial podrá leer las emociones de tus empleados
ESCRIBE LA BÚSQUEDA Y PRESIONA ENTER

El reconocimiento facial podrá leer las emociones de tus empleados

COMPARTIR

···

El reconocimiento facial podrá leer las emociones de tus empleados

La tecnología de reconocimiento facial está avanzando hacia una nueva dirección: los algoritmos están aprendiendo a reconocer lo que sentimos.

Las compañías de inteligencia artificial afirman que la tecnología tiene el poder de transformar el reclutamiento de empleados.

Financial Times Por Patricia Nilsson
01/03/2018
Actualización 28/02/2018 - 23:15
Al registrarte estás aceptando el aviso de privacidad y protección de datos. Puedes desuscribirte en cualquier momento.
Placeholder block
Los desarrolladores afirman que la tecnología puede superar el sesgo, pero persisten las dudas sobre la privacidad de los datos.Fuente: Ismael Angeles

La tecnología de reconocimiento facial nos permite pagar el almuerzo, desbloquear un teléfono e incluso puede hacer que nos arresten. Actualmente, esa tecnología está avanzando hacia una nueva dirección: los algoritmos no sólo están aprendiendo a reconocer quiénes somos, sino también lo que sentimos.

La llamada tecnología de reconocimiento de emociones está en sus comienzos. Pero las compañías de inteligencia artificial (IA) afirman que la tecnología tiene el poder de transformar el reclutamiento.

Sus algoritmos, según dicen, pueden descifrar cuán entusiasta, honesto o dinámico puede ser un solicitante de empleo, y ayudar a los empleadores a descartar candidatos con características indeseables. Los empleadores, incluyendo a Unilever, ya están comenzando a utilizar la tecnología.

Human es una compañía “startup” con sede en Londres, fundada en 2016, que analiza aplicaciones de trabajo basadas en video. La compañía afirma que puede detectar las expresiones emocionales de posibles candidatos y relacionarlas con rasgos de personalidad. Sus algoritmos recopilan la información al descifrar expresiones faciales subliminales cuando el solicitante responde preguntas.

Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante"
Yi Xu, fundadora y directora ejecutiva de Human

Human le envía al reclutador un informe que detalla las reacciones emocionales de los candidatos a cada pregunta de la entrevista, con puntajes en relación con características que especifican cuán “honesto” o “apasionado” es un solicitante.

“Si el reclutador dice: ‘Estamos buscando al candidato más curioso’, pueden encontrar a esa persona comparando los puntajes de los candidatos”, declaró Yi Xu, la fundadora y directora ejecutiva de Human.

Los reclutadores aún pueden evaluar a los candidatos durante una entrevista de la manera convencional, pero existe un límite en cuanto a la cantidad de candidatos con la que pueden reunirse o en cuanto a la cantidad de aplicaciones en video que pueden ver. Xu ha comentado que la tecnología de reconocimiento de emociones de su empresa ayuda a los empleadores a sondear un grupo más amplio de candidatos y a preseleccionar a personas que tal vez no hubieran considerado.

“Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante”, comentó ella. Uno de los objetivos, afirmó, es superar la discriminación étnica y de género en la contratación.

Frederike Kaltheuner, asesora de políticas sobre innovación de datos en Privacy International, una organización de campañas global, está de acuerdo en que los entrevistadores humanos pueden ser parciales. Pero ella ha dicho que: “Los nuevos sistemas conllevan nuevos problemas”.

El mayor problema es el relacionado con la privacidad y lo que ocurre con los datos una vez que se analizan. Ailidh Callander, una oficial legal en Privacy International, dijo que no está claro si los datos utilizados para entrenar a los algoritmos de reconocimiento de emociones -como los obtenidos durante las entrevistas de trabajo basadas en video- cuentan como “personales” y si se aplica la legislación de privacidad de datos.

En la década de 1970, los psicólogos estadounidenses Paul Ekman y Wallace V. Friesen desarrollaron una taxonomía de las emociones humanas llamada Sistema de Codificación de Acción Facial (FACS, por sus siglas en inglés). Usando el sistema, un especialista en el FACS puede detectar si una sonrisa es sincera o no simplemente analizando una fotografía. A la inteligencia emocional artificial se le enseña a interpretar expresiones faciales de forma similar.

Ekman, quien actualmente dirige el Paul Ekman Group, una empresa que capacita a especialistas en reconocimiento de emociones, declaró que el logro de una inteligencia emocional artificial confiable basada en sus métodos es posible. Pero él agregó: “Nadie ha publicado investigaciones que demuestren que los sistemas automatizados son precisos”.

Declaró que incluso si la inteligencia emocional artificial fuera posible, las personas que interpretan los datos, en este caso los empleadores, también deberían recibir capacitación para descifrar correctamente los resultados. “El FACS puede decirte que alguien está apretando sus labios, pero esto puede significar diferentes cosas según la cultura o el contexto”, comentó.

Las personas difieren en su capacidad para manipular sus emociones con el fin de ‘engañar’ al sistema, y Ekman apuntó: “Si las personas saben que las están observando, cambian su comportamiento”. Aquellos a quienes se les dice que sus emociones serán analizadas se cohíben.

Según HireVue, Unilever ha ahorrado 50 mil horas de trabajo durante 18 meses desde que puso gran parte de su proceso de contratación en línea y comenzó a usar la plataforma de entrevistas basada en vIdeo. HireVue integró la tecnología de reconocimiento de emociones a su servicio hace aproximadamente dos años y le vendió su servicio a Unilever.

“Los reclutadores tienen la oportunidad de dedicar su tiempo a las mejores personas en lugar de a quienes lograron pasar por la revisión del currículum”, comentó Loren Larsen, el director de tecnología de HireVue, con sede en Salt Lake City. “Tú no eliminas a la persona adecuada porque fue a la escuela equivocada”.