FT Español

Inteligencia artificial permite detectar emociones en entrevistas laborales

Los desarrolladores afirman que la tecnología puede superar sesgos raciales o de género, pero persisten las dudas sobre la privacidad individual.

Por: Patricia Nilsson | Publicado: Viernes 2 de marzo de 2018 a las 04:00 hrs.
  • T+
  • T-

Compartir

La tecnología de reconocimiento facial nos permite pagar el almuerzo, desbloquear el teléfono e incluso puede hacer que nos arresten. Actualmente, esa tecnología está avanzando hacia una nueva dirección: los algoritmos no sólo están aprendiendo a reconocer quiénes somos, sino también lo que sentimos.

La tecnología de reconocimiento de emociones está en sus comienzos. Pero las compañías de inteligencia artificial (IA) afirman que la tecnología tiene el poder de transformar el reclutamiento.

Sus algoritmos, según dicen, pueden descifrar cuán entusiasta, honesto o dinámico puede ser un postulante, y así ayudar a descartar candidatos con características indeseables. Los empleadores, incluyendo a Unilever, ya están comenzando a utilizar la tecnología.

Libre de prejuicios

Human es una startup con sede en Londres, fundada en 2016, que analiza postulaciones a trabajos basadas en video. La compañía afirma que puede detectar las expresiones emocionales de posibles candidatos y relacionarlas con rasgos de personalidad. Sus algoritmos recopilan la información al descifrar expresiones faciales subliminales cuando el solicitante responde preguntas.

Human le envía al reclutador un informe que detalla las reacciones emocionales de los candidatos a cada pregunta de la entrevista, con puntajes en relación con características que especifican cuán “honesto” o “apasionado” es un solicitante.

“Si el reclutador dice: ‘estamos buscando al candidato más curioso’, pueden encontrar a esa persona comparando los puntajes de los candidatos”, declaró Yi Xu, la fundadora y directora ejecutiva de Human.

Los reclutadores tienen un límite de candidatos con los que pueden reunirse o de aplicaciones de video que pueden ver. Xu comentó que el sistema de su empresa ayuda a los empleadores a sondear un grupo más amplio de candidatos y a preseleccionar a personas que tal vez no hubieran considerado.

“Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante”, comentó ella. Uno de los objetivos, afirmó, es superar la discriminación étnica y de género en la contratación.

¿Viola la privacidad?

Frederike Kaltheuner, asesora de políticas sobre innovación de datos en Privacy International, una organización de campañas global, está de acuerdo en que los entrevistadores humanos pueden ser parciales. Pero también dijo que “los nuevos sistemas conllevan nuevos problemas”.

El mayor problema es el relacionado con la privacidad y lo que ocurre con los datos una vez que se analizan. Ailidh Callander, una oficial legal en Privacy International, dijo que no está claro si los datos utilizados para entrenar a los algoritmos de reconocimiento de emociones cuentan como “personales” y si se aplica la legislación de privacidad de datos.

Xu dijo: “Tú no piensas ‘cómo va la gente a hacer mal uso de mi producto’ (…) pero no somos lo suficientemente ingenuos como para pensar que esta tecnología sólo puede hacer el bien”.

Método falible

En la década de los ‘70, los psicólogos estadounidenses Paul Ekman y Wallace Friesen desarrollaron una taxonomía de las emociones humanas llamada Sistema de Codificación de Acción Facial (FACS, su sigla en inglés). Usando el sistema, un especialista en FACS puede detectar si una sonrisa es sincera o no simplemente analizando una fotografía. A la inteligencia emocional artificial se le enseña a interpretar expresiones faciales de forma similar.

Ekman, quien actualmente dirige el Paul Ekman Group, una empresa que capacita a especialistas en reconocimiento de emociones, declaró que el logro de una inteligencia emocional artificial confiable basada en sus métodos es posible. “Nadie ha publicado investigaciones que demuestren que los sistemas automatizados son precisos”, agregó.

Ekman declaró que incluso si la inteligencia emocional artificial fuera posible, las personas que interpretan los datos, en este caso los empleadores, también deberían recibir capacitación para descifrar correctamente los resultados.

“El FACS puede decirte que alguien está apretando sus labios, pero esto puede significar diferentes cosas según la cultura o el contexto”, comentó.

Las personas difieren en su capacidad para manipular sus emociones con el fin de ‘engañar’ al sistema, y Ekman apuntó: “si las personas saben que las están observando, cambian su comportamiento. Aquellos a quienes se les dice que sus emociones serán analizadas se cohíben”.

Lo más leído