Hoy en día los sesgos en algoritmos de contratación en las grandes empresas están presentes. Normalmente la serie de algoritmos que puede seguirse nos da como resultado al menos la primera ronda de los candidatos que pasan los filtros para algún puesto. Es un enfoque que ha generado una próspera economía secundaria, la «tecnología del trabajo».
De acuerdo con Fast Company, las investigaciones demuestran que este proceso de selección automatizado puede crear sesgos en algoritmos de contratación para los trabajadores cualificados que no cumplen instantáneamente los criterios programados por la máquina, que, casualmente, también tienden a basarse en los candidatos fuertes del pasado, que a menudo eran blancos, estadounidenses y hombres.
Hoy, algunas de las mayores empresas de Estados Unidos se comprometen a aplicar nuevas salvaguardias para eliminar este tipo de prejuicios.
Eliminar sesgos en algoritmos de contratación
Se trata de la primera iniciativa de un nuevo grupo llamado Data & Trust Alliance, cuyo objetivo es ofrecer a las empresas que recurren a la contratación por IA un conjunto de herramientas para identificar y eliminar los prejuicios injustos.
Los socios comerciales incluyen 21 grandes empresas, entre ellas Nike, Meta, IBM, American Express, Mastercard, CVS, Deloitte, General Motors, Humana, Nielsen y Under Armour.
La alianza en sí fue formada el año pasado por el ex director general de American Express, Ken Chenault, y el ex director general de IBM, Sam Palmisano, que consideraban que dejar que la IA resolviera todos los problemas de las empresas empezaba a tener riesgos.
Los socios corporativos de esta iniciativa emplean a casi 4 millones de personas y tienen un valor de mercado combinado de más de 3 billones de dólares. Sus «Salvaguardias de sesgo algorítmico» incluyen un conjunto de 55 preguntas para evaluar el software de contratación de IA.
La alianza afirma que la herramienta puede utilizarse para detectar la discriminación involuntaria de la IA en todos los aspectos, desde los datos de entrenamiento y el diseño del modelo de contratación de una empresa, hasta sus métodos de corrección de sesgos, sus compromisos con la diversidad y la transparencia de todo el proceso.
Al parecer, los criterios fueron desarrollados por un grupo de trabajo formado por profesionales de RRHH, IA, TI, derecho y diversidad, equidad e inclusión, y luego se perfeccionaron con las aportaciones de cientos de expertos académicos y líderes empresariales externos.
Los críticos de los sesgos en algoritmos de contratación de la IA probablemente replicarán que esto suena muy bien, pero que sería más apropiado en manos de una autoridad independiente, en lugar de las empresas.
La Data & Trust Alliance aborda esta cuestión, en parte, haciendo hincapié en que el grupo no tiene planes de convertirse en un grupo de expertos ni de influir en la política, y que compartirá sus herramientas y mejores prácticas con cualquiera que intente avanzar en el uso responsable de los datos y los algoritmos.