Empresas usan entrevistas por computadora para contratar

para ver y evaluar los videos pregrabados.

para ver y evaluar los videos pregrabados.

Nada de esto lo tenía claro Anthony cuando se sentó frente a una pantalla para entrevistarse para un trabajo de temporada el año pasado. Se vistió para la ocasión y se puso en un lugar cómodo. La única señal de presencia humana llegó en la forma de una introducción pregrabada que explicaba qué esperar, señalando, por ejemplo, que podía borrar una respuesta y volver a empezar.

Pero no tenía forma de saber qué impresión daba. Somos incapaces de ofrecer retroalimentación específica en relación a tu candidatura, decía el correo electrónico de rechazo de Target. Fue rechazada una vez más después de completar una entrevista con HireVue para otro empleo en diciembre.

Entiendo que las empresas u organizaciones intentan ser más conscientes del tiempo y el dinero que gastan cuando se trata de reclutar, dijo Anthony, quien el año pasado obtuvo el título de maestría en comunicaciones estratégicas en la Universidad de Carolina del Norte campus Chapell Hill. Pero las entrevistas automatizadas la dejaron intranquila sobre quién, o qué, la evaluaba.

Esa inescrutabilidad representa una de las principales preocupaciones sobre el rápido crecimiento de algoritmos complejos en el reclutamiento y contratación, dijo Kelly-Lyth.

En un ejemplo infame, Amazon desarrolló una herramienta para escanear currículums para reclutar talento de alto nivel, pero lo abandonó después de hallar que favorecía a hombres para los puestos técnicos, en parte porque comparaba candidatos para el trabajo con la misma fuerza laboral de la compañía, la cual está integrada en su mayoría por hombres. Un estudio publicado en abril halló que Facebook muestra diferentes anuncios para trabajos a mujeres y hombres de forma tal que podría infringir las leyes contra la discriminación.

Gobiernos en Estados Unidos y Europa investigan posibles revisiones a estas herramientas de contratación, incluidos requisitos para auditorías externas para asegurarse de que no discrimine a mujeres, minorías o personas con discapacidades. Las normas propuestas de la UE, develadas en abril, obligarían a los proveedores de sistemas de inteligencia artificial que revisan o evalúan a candidatos para trabajos a cumplir con nuevos requisitos de precisión, transparencia y rendición de cuentas.