Con el 65% de las empresas ya utilizando herramientas habilitadas por Inteligencia Artificial (IA) en sus procesos de contratación, surge una pregunta fundamental: ¿Es responsable permitir que un robot tome decisiones cruciales sobre nuestro futuro laboral?
En la era digital actual, la integración de la IA en la gestión de recursos humanos está transformando la forma en que las organizaciones seleccionan a sus futuros colaboradores. Sin embargo, a medida que esto avanza, es importante que las empresas planteen inquietudes sobre la responsabilidad social en los procesos de selección, de acuerdo con The Conversation.
IA en la contratación
En el ámbito de la contratación, las herramientas habilitadas por IA tienen la capacidad de recopilar grandes cantidades de datos organizativos para buscar, identificar, evaluar, clasificar y seleccionar candidatos. Pueden recopilar información sobre las necesidades de contratación en equipos, generar anuncios con características de candidatos modelo y resaltar posibles candidatos en diversas plataformas digitales.
Estas herramientas han prometido durante mucho tiempo eficiencia en el procesamiento de documentos de solicitantes, al tiempo que potencialmente reducen el sesgo de los agentes de recursos humanos que pueden, de manera intencional o no, discriminar o juzgar injustamente algunas solicitudes.
Falta de Responsabilidad Social
Sin embargo, hay evidencia emergente que sugiere que las herramientas de recursos humanos habilitadas por IA pueden discriminar a ciertos candidatos que no se ajustan al patrón histórico para la descripción del trabajo, como candidatos femeninos en ciertas industrias, como la ciencia, tecnología, ingeniería y matemáticas (STEM por sus siglas en inglés), o aquellos con lagunas en sus currículums debido a enfermedades, discapacidades, cuidado de un miembro de la familia, desempleo o tiempo cumplido en prisión.
La preocupación se intensifica al considerar el historial de gigantes tecnológicos como Apple, IBM y Microsoft en la implementación de la IA en otros contextos. A pesar de su experiencia, estas empresas han enfrentado críticas por fallas éticas, especialmente en lo que respecta a la discriminación de género.
Por ejemplo, los reguladores estadounidenses investigaron a Apple en 2019 después de que se revelara que su servicio de tarjetas de crédito impulsado por IA ofrecía sistemáticamente límites de crédito más bajos a las mujeres. La alarma la dieron varias parejas, incluida la de Steve Wozniak, cofundador de Apple, y su esposa, a quienes el algoritmo de la tarjeta de crédito les ofrecía al hombre un límite de crédito más alto, a pesar de tener cuentas conjuntas.
Ser reclutado por un robot es injusto: candidatos
Los datos disponibles sobre la IA en la contratación sugieren que los solicitantes de empleo son instintivamente críticos con su uso. Los candidatos sometidos a decisiones autónomas de IA describen el proceso como «indigno» o «injusto».
Otras investigaciones sugieren que el juicio es menos severo en contextos diferentes. Según una encuesta de noviembre de 2023 realizada por Tideo, solo el 31% de los encuestados estaría de acuerdo en permitir que la IA decida si son contratados o no. Pero esa cifra aumenta al 75% si también hay presencia humana en el proceso. Aun así, el 25% de los participantes cree que cualquier uso de la inteligencia artificial en la contratación es injusto.
Antes de esta investigación, las percepciones éticas de las organizaciones que utilizan herramientas habilitadas por IA en el proceso de contratación no se habían estudiado mucho. La mayoría de la investigación académica sobre el tema se centraba en la equidad de la práctica o la confianza en la tecnología, como los chatbots, en lugar de la confianza en las propias organizaciones.
En dos publicaciones en el Journal of Business Ethics, se examinó cómo el uso de la IA en la contratación podría afectar la confianza de los solicitantes de empleo o individuos recién contratados en la empresa. Se descubrió que sus percepciones de la IA determinan si identifican a la organización que la utiliza como confiable o incluso atractiva e innovadora.
Es confiable el uso de la IA
Las percepciones varían según los valores personales, experiencias pasadas y la aceptación de la tecnología de los individuos. También varían según contextos y aplicaciones.
Por ejemplo, mientras que un individuo puede confiar en la efectividad de la IA para predecir las preferencias cinematográficas, los estudios muestran que la mayoría seguiría prefiriendo a un ser humano o una colaboración humano-IA (es decir, en lugar de IA autónoma) para tomar una decisión de contratación.
En otro estudio realizado en junio de 2022 sobre ética de la inteligencia artificial y confianza organizativa, se descubrió que los candidatos que consideran que ser reclutado por un robot, evaluando su desempeño, tienen un 64% más de probabilidad de confiar en las organizaciones que emplean esta tecnología.
Por ejemplo, se encontró que los candidatos que perciben que es ético que una organización utilice IA para analizar su contenido personal en redes sociales o analizar una entrevista de audio en busca de pistas vocales son un 25% más propensos a percibir esa organización como atractiva.
El equilibrio humano-IA es clave
Los gerentes de recursos humanos enfrentan un entorno ético cada vez más complejo, donde la IA implica un conjunto de aplicaciones en rápido crecimiento. Las organizaciones que están decididas a mantener lo «humano» en recursos humanos deberán equilibrar cuidadosamente ambos en el proceso de contratación, teniendo en cuenta factores como la transparencia y las expectativas financieras.
Junto con otros estudios, esta investigación aporta nueva urgencia a la tarea de integrar la ética de la IA en la gobernanza de cada organización. En un mundo donde la tecnología avanza rápidamente, la responsabilidad de ser reclutado por un robot implica no solo eficiencia y rendimiento, sino también la preservación de los valores éticos y la confianza en el proceso de contratación.
Continuamos desafortunadamente con la deshumanización de la persona en su entorno laboral, lo cual incrementará más la pobreza en entornos que corresponden a estratos bajos en Latinoamérica.