La inteligencia artificial (IA) está transformando los procesos de reclutamiento y selección de personas en las empresas y en las plataformas de búsqueda de empleo, con herramientas que permiten acelerar etapas como la revisión de currículums, la aplicación de pruebas o el contacto inicial con postulantes.
Sin embargo, especialistas vinculadas al tema, señalaron que su uso no está exento de riesgos y desafíos éticos, como replicar sesgos históricos y discriminación hasta decisiones que, al automatizarse, pueden afectar la dignidad de los postulantes e incluso dañar la reputación de una organización.
La directora de la Asociación de Ética Empresarial y Organizacional de Chile, Macarena McKay, advirtió que uno de los principales dilemas éticos es confiar ciegamente en tecnologías que muchas veces se perciben como neutrales.
“El algoritmo no es mejor que el dato que lo entrena. Si este viene con datos históricos con sesgos de género o de raza, de edad o incluso afinidad cultural o valórica con la empresa, la IA lo va a replicar y lo va a aprender y va a seguir con lo mismo. Entonces se automatiza la discriminación”, afirmó.
McKay dijo que a esto se suma la falta de transparencia en el diseño y aplicación de la herramienta de IA, la que viene desde el proveedor que crea el algoritmo, el que no explica a la empresa cómo funciona, entonces “no tienes idea de cómo estos sistemas llegan a una decisión o qué criterios usan”, y agregó que la decisión de contratar o no a una persona, implica afectar su “entorno, dignidad y futuro”.
Para la directora ejecutiva de la consultora de recursos humanos W-UP, Carmen Luz Morales, uno de los riesgos éticos más relevantes está en cómo se diseñan los filtros automatizados.
“Los filtros ATS (sigla de Applicant Tracking System) llevan de alguna manera a que inevitablemente muchos currículums y talentos queden fuera por no tener el formato adecuado o porque la lectura no pasó principalmente el filtro”, afirmó.
También alertó sobre el uso de filtros de edad que limitan las oportunidades para personas mayores de 50 años, el grupo “con mayor tasa de desempleo”.
No obstante, dijo que la IA puede aportar a una mayor equidad si se entrena con criterios éticos, pero “es necesario que durante el entrenamiento de los sistemas veamos qué estamos dejando fuera y por qué lo estamos haciendo”.
Según Morales, “la guerra por el talento en este minuto está desatada” y afirmó que propuestas con mayor conciencia ética y social “van a ser más elegibles”, por lo que, a su juicio, las organizaciones que no integren criterios éticos en sus procesos de reclutamiento con IA podrían ver afectada su reputación y su capacidad para atraer talento calificado.
Acelera el proceso
La fundadora y CEO de The People Future, Denisse Goldfarb, dijo que entre un 20% y 30% de las grandes empresas y multinacionales en Chile ya están utilizando IA en sus procesos de selección, principalmente en cargos de entrada o alta rotación, donde hay un gran volumen de postulaciones.
Comentó que su uso permite reducir -según estudios de Deloitte- hasta un 40% los tiempos de contratación, y que contribuye a aumentar la eficiencia, especialmente en procesos masivos, pero enfatizó que “cada vez empieza a ser más relevante el criterio humano, incluso para la etapa de entrevistas”.
Por ejemplo, la plataforma Trabajando.com, que utiliza IA para aplicar filtros por geolocalización o para determinar el porcentaje de coincidencia entre los requerimientos del puesto y el perfil del postulante, “desglosa el cargo en distintas habilidades y ese mismo análisis se hace a nivel de candidato. (…) Te puede decir cuál es el porcentaje de calce que tienen los distintos candidatos”, explicó Goldfarb.
Sin embargo, comentó que la IA debe ser entendida como una herramienta complementaria en los procesos de selección y que las compañías “han entendido que la decisión no se puede dejar 100% a la inteligencia artificial”.
McKay, en tanto, señaló que muchas empresas están empezando a utilizar el asistente de reclutamiento de IA de LinkedIn. “Le piden al algoritmo que publique la oferta con todo el prompt (instrucción de texto) que les dan, realizan entrevistas virtuales, contacto por video, y eso hace que contraten más rápido”, afirmó.
Pero alertó que muchos software o herramientas con algoritmos, excluyen algunos candidatos por las estructuras gramaticales o palabras clave en sus perfiles o currículums, incluso aunque tengan trayectorias competentes.
“Hay algoritmos que le dan más puntos a algunos estilos de escritura o estructuras gramaticales. (...) Un caso emblemático es Amazon. Había mujeres que ponían en su currículum ‘estamos en el club de mujeres de ajedrez’ como hobby, y quedaban excluidas porque decía la palabra mujer”, añadió.