Inteligencia artificial permite detectar emociones en entrevistas laborales
Los desarrolladores afirman que la tecnología puede superar sesgos raciales o de género, pero persisten las dudas sobre la privacidad individual.
Por: Patricia Nilsson
Publicado: Viernes 2 de marzo de 2018 a las 04:00 hrs.
Noticias destacadas
La tecnología de reconocimiento facial nos permite pagar el almuerzo, desbloquear el teléfono e incluso puede hacer que nos arresten. Actualmente, esa tecnología está avanzando hacia una nueva dirección: los algoritmos no sólo están aprendiendo a reconocer quiénes somos, sino también lo que sentimos.
La tecnología de reconocimiento de emociones está en sus comienzos. Pero las compañías de inteligencia artificial (IA) afirman que la tecnología tiene el poder de transformar el reclutamiento.
Sus algoritmos, según dicen, pueden descifrar cuán entusiasta, honesto o dinámico puede ser un postulante, y así ayudar a descartar candidatos con características indeseables. Los empleadores, incluyendo a Unilever, ya están comenzando a utilizar la tecnología.
Libre de prejuicios
Human es una startup con sede en Londres, fundada en 2016, que analiza postulaciones a trabajos basadas en video. La compañía afirma que puede detectar las expresiones emocionales de posibles candidatos y relacionarlas con rasgos de personalidad. Sus algoritmos recopilan la información al descifrar expresiones faciales subliminales cuando el solicitante responde preguntas.
Human le envía al reclutador un informe que detalla las reacciones emocionales de los candidatos a cada pregunta de la entrevista, con puntajes en relación con características que especifican cuán “honesto” o “apasionado” es un solicitante.
“Si el reclutador dice: ‘estamos buscando al candidato más curioso’, pueden encontrar a esa persona comparando los puntajes de los candidatos”, declaró Yi Xu, la fundadora y directora ejecutiva de Human.
Los reclutadores tienen un límite de candidatos con los que pueden reunirse o de aplicaciones de video que pueden ver. Xu comentó que el sistema de su empresa ayuda a los empleadores a sondear un grupo más amplio de candidatos y a preseleccionar a personas que tal vez no hubieran considerado.
“Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante”, comentó ella. Uno de los objetivos, afirmó, es superar la discriminación étnica y de género en la contratación.
¿Viola la privacidad?
Frederike Kaltheuner, asesora de políticas sobre innovación de datos en Privacy International, una organización de campañas global, está de acuerdo en que los entrevistadores humanos pueden ser parciales. Pero también dijo que “los nuevos sistemas conllevan nuevos problemas”.
El mayor problema es el relacionado con la privacidad y lo que ocurre con los datos una vez que se analizan. Ailidh Callander, una oficial legal en Privacy International, dijo que no está claro si los datos utilizados para entrenar a los algoritmos de reconocimiento de emociones cuentan como “personales” y si se aplica la legislación de privacidad de datos.
Xu dijo: “Tú no piensas ‘cómo va la gente a hacer mal uso de mi producto’ (…) pero no somos lo suficientemente ingenuos como para pensar que esta tecnología sólo puede hacer el bien”.
Método falible
En la década de los ‘70, los psicólogos estadounidenses Paul Ekman y Wallace Friesen desarrollaron una taxonomía de las emociones humanas llamada Sistema de Codificación de Acción Facial (FACS, su sigla en inglés). Usando el sistema, un especialista en FACS puede detectar si una sonrisa es sincera o no simplemente analizando una fotografía. A la inteligencia emocional artificial se le enseña a interpretar expresiones faciales de forma similar.
Ekman, quien actualmente dirige el Paul Ekman Group, una empresa que capacita a especialistas en reconocimiento de emociones, declaró que el logro de una inteligencia emocional artificial confiable basada en sus métodos es posible. “Nadie ha publicado investigaciones que demuestren que los sistemas automatizados son precisos”, agregó.
Ekman declaró que incluso si la inteligencia emocional artificial fuera posible, las personas que interpretan los datos, en este caso los empleadores, también deberían recibir capacitación para descifrar correctamente los resultados.
“El FACS puede decirte que alguien está apretando sus labios, pero esto puede significar diferentes cosas según la cultura o el contexto”, comentó.
Las personas difieren en su capacidad para manipular sus emociones con el fin de ‘engañar’ al sistema, y Ekman apuntó: “si las personas saben que las están observando, cambian su comportamiento. Aquellos a quienes se les dice que sus emociones serán analizadas se cohíben”.
Te recomendamos
ARTICULOS RELACIONADOS
Newsletters
LO MÁS LEÍDO
Caso Primus: SII amplía querella en contra de principales imputados por perjuicio fiscal de $ 5.400 millones
El organismo denunció subdeclaración de impuestos en contra de Francisco Coeymans, Ignacio Amenábar, Antonio Guzmán y Marcelo Rivadeneira, y, en tres casos, omisión maliciosa de declaración de renta.
Presidente del TDLC endurece alerta por recortes presupuestarios: "El papel de Chile como referente en materia de competencia en la región se ve reducido"
En la Cuenta Pública de la entidad, Nicolás Rojas criticó que las restricciones "se han mantenido en el tiempo ya por tres gobiernos de distintos signos, poniendo en riesgo la fortaleza de la institucionalidad de defensa de la libre competencia".
BRANDED CONTENT
Un salto hacia la electromovilidad:
La iniciativa, que estará vigente hasta el 31 de mayo de 2026 o hasta agotar las 500 unidades, busca facilitar el acceso a los vehículos eléctricos, en un contexto marcado por la búsqueda de alternativas más sustentables y eficientes ante el alza de los combustibles
Un salto hacia la electromovilidad:
La iniciativa, que estará vigente hasta el 31 de mayo de 2026 o hasta agotar las 500 unidades, busca facilitar el acceso a los vehículos eléctricos, en un contexto marcado por la búsqueda de alternativas más sustentables y eficientes ante el alza de los combustibles
Dra Susan Bueno y el impulso que la mueve a avanzar, investigar y aportar a la sociedad.
Su curiosidad temprana la llevó a estudiar las enfermedades infecciosas y a contribuir en el desarrollo de la primera vacuna aplicada masivamente en Chile contra el Covid-19. Hoy, la Dra. Susan Bueno, reconocida en 2024 como inventora del año, continúa aportando desde la investigación al fortalecimiento de la salud. Mira aquí su entrevista
Instagram
Facebook
LinkedIn
YouTube
TikTok