Buscar
Capital Humano

Lectura 4:00 min

El reclutamiento con inteligencia artificial no siempre es una decisión inteligente

Pruebas realizadas por la UNY a dos herramientas tecnológicas de reclutamiento señalaron cambios de puntaje en varios participantes. Por ello, este tipo de plataforma no pueden ser consideradas determinantes para otorgar un puesto de trabajo.

Una de las tendencias que la pandemia de covid-19 impulsó en el mundo del trabajo es el reclutamiento con Inteligencia Artificial (IA). Como ha ocurrido con los avances tecnológicos en cada época, la opinión sobre ellos puede irse hacia el recelo o hacia la total entrega. Pero hay varios puntos a observar antes de tomar una decisión.

Por ejemplo, una investigación de un grupo interdisciplinario de especialistas en la Universidad de Nueva York (UNY) analizó un par de plataformas y encontró fallas básicas, por lo que concluyó que algunas pruebas algorítmicas de personalidad no pueden considerarse como “instrumentos de prueba válidos” para decidir contratar o no a una persona.

Según Atento, compañía dedicada a la subcontratación de diversos servicios de atención, “ocho de cada 10 candidatos entrevistados mediante soluciones basadas en Inteligencia Artificial (IA) son aprobados para cubrir las vacantes solicitadas, lo que representa un aumento de 30% en el índice de aprobación en comparación con el método tradicional”.

Para Miranda Bogen, responsable de Política de AI en Meta, se espera que “los algoritmos ayuden a los humanos a evitar sus propios prejuicios al agregar consistencia al proceso de contratación. Pero los algoritmos introducen nuevos riesgos propios”, escribió en Harvard Business Review, revista de la Universidad de Harvard.

El equipo de la UNY analizó las plataformas de Humantic AI y Crystal y señaló que “exhiben inestabilidad en el orden de clasificación con respecto al contexto de la fuente y el tiempo del participante”.

Los resultados fueron publicados en el artículo académico Formato de currículum, URL de LinkedIn y otras influencias inesperadas en la predicción de personalidad de IA en la contratación: resultados de una auditoría.

Falta evidencia

Según el estudio, “Crystal calcula con frecuencia diferentes puntajes de personalidad si el mismo currículum se proporciona en PDF y en texto sin procesar, violando la suposición de que el resultado de una prueba de personalidad algorítmica es estable a través de variaciones de entrada irrelevantes para el trabajo”.

Se encontró “evidencia de vinculación de datos persistente, y a menudo incorrecta, por parte de Humantic AI”.

La herramienta de predicción de texto de Crystal “es determinista”, los resultados para Humantic AI “no fueron perfectamente reproducibles, ni siquiera de inmediato”, dice el reporte. Eso podría explicar por qué encontraron cambios de puntaje en varios participantes, es decir, en personas que anhelaban el puesto de trabajo para el que aplicaron.

Humantic AI usa información de los perfiles de LinkedIn. Sin embargo, “descubrimos una inestabilidad sustancial” de tiempo, pues en ocasiones no han sido actualizados y no concuerdan con el recorrido profesional y de experiencia de las personas solicitantes de empleo.

“Es esencial obtener más evidencia de la validez específica del dominio para respaldar el uso de pruebas algorítmicas de personalidad en la contratación”, dice las autoras y los autores de la publicación de la UNY.

La investigación es de Alene Rhea, Kelsey Markey, Lauren D'arinzo, Hilke Schellmann, Mona Sloane, Pablo Escuderos y Julia Stoyanovich. Son especialistas en informática y ciencia de datos, sociología, psicología industrial y periodismo de investigación.

“Nuestra metodología puede ser utilizada por empleadores para tomar decisiones informadas de compra y uso, por legisladores para guiar la regulación y por buscadores de empleo para tomar decisiones informadas sobre la divulgación de su información a posibles empleadores”, dicen en el documento.

No podemos dejarle todo a la tecnología

Las plataformas de reclutamiento mediante AI “pueden replicar sesgos institucionales e históricos, amplificando las desventajas” como la escolaridad o la evaluación del desempeño, dice Miranda Bogen.

“Incluso si los algoritmos eliminan cierta subjetividad del proceso de contratación, los humanos siguen estando muy involucrados en las decisiones finales” de contratación. Por ejemplo, pueden negar que las aplicaciones o plataformas se equivoquen.

En una investigación realizada con Aaron Rieke, Bogen encontró “que la mayoría de los algoritmos de contratación se desvían hacia el sesgo de forma predeterminada”. Los resultados de ese estudio fueron publicados en el reporte Se busca ayuda. Un examen de los algoritmos de contratación, la equidad y el sesgo.

No hay que descartar el potencial de las plataformas para, precisamente, evitar el sesgo interpersonal de quienes se encargan del reclutamiento, dice. Pero estas herramientas deben ser creadas con el objetivo, agrega, de abordar “de manera proactiva las disparidades más profundas” para promover la equidad, “en lugar de erosionarla”.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete