Es posible que las herramientas de contratación de empleo impulsadas por IA no mejoren la diversidad de contratación, argumentan los expertos

Línea superior

Las herramientas de contratación de empleo que afirman utilizar inteligencia artificial para evitar los sesgos raciales y de género pueden no mejorar la diversidad en la contratación y, de hecho, podrían perpetuar esos prejuicios, argumentaron el domingo investigadores de la Universidad de Cambridge, presentando los programas, que han generado críticas en el pasado. como una forma de utilizar la tecnología para ofrecer una solución rápida a un problema más profundo.

Hechos clave

En un artículo publicado por Filosofía y Tecnología, los investigadores analizaron las afirmaciones de varias empresas que ofrecen herramientas de reclutamiento impulsadas por IA, muchas de las cuales afirman eliminar los sesgos y promover la diversidad al ocultar los nombres, géneros y otros identificadores de los candidatos, y algunas de las cuales clasificar candidatos basados ​​en escaneos de currículums, evaluaciones en línea y análisis del habla y las expresiones faciales de los solicitantes.

Los investigadores, dos profesores del Centro de Estudios de Género de la Universidad de Cambridge, argumentaron que estas herramientas en realidad pueden promover la uniformidad en la contratación porque reproducen los sesgos culturales del "candidato ideal", que históricamente ha sido un hombre blanco o europeo.

Es posible que las herramientas tampoco mejoren la diversidad porque se basan en datos anteriores de la empresa y, por lo tanto, pueden promover candidatos que son más similares a los empleados actuales.

Hay "poca responsabilidad sobre cómo se construyen o prueban estos productos", dijo en un comunicado Eleanor Drage, coautora del estudio e investigadora del Centro de Estudios de Género de la Universidad de Cambridge, y agregó que la tecnología podría servir como un "peligroso" fuente de "información errónea sobre cómo se puede 'desprejuiciar' y hacer más justo el reclutamiento".

Cita crucial

“Al afirmar que el racismo, el sexismo y otras formas de discriminación pueden eliminarse del proceso de contratación utilizando inteligencia artificial, estas empresas reducen la raza y el género a puntos de datos insignificantes, en lugar de sistemas de poder que dan forma a cómo nos movemos por el mundo. Drage dijo en un comunicado.

Tangente

Amazon anunció en 2018 que detener utilizando una herramienta de reclutamiento de IA para revisar los currículos de los solicitantes de empleo después de que descubrió que el sistema discriminaba fuertemente a las mujeres. Esto se debe a que los modelos informáticos en los que se basó se desarrollaron en base a los currículos enviados a la empresa durante los últimos 10 años, que en su mayoría procedían de candidatos masculinos.

Fondo clave

Las organizaciones recurren cada vez más a la IA para ayudar a administrar los procesos de contratación de trabajo. En uno Encuesta 2020 de más de 300 líderes de recursos humanos citados por los autores del artículo del domingo, la consultora Gartner encontró que el 86 % de los empleadores usan tecnología virtual en sus prácticas de contratación, una tendencia que se ha acelerado desde que la pandemia de covid-19 obligó a muchos a cambiar el trabajo en línea. Si bien algunas empresas han argumentado que la IA puede ofrecer un proceso de contratación más rentable y efectivo en el tiempo, algunas expertos tienen encontrado los sistemas tienden a promover, en lugar de eliminar, la contratación con prejuicios raciales y de género al reproducir los prejuicios existentes en el mundo real. Varios legisladores estadounidenses han Dirigido para abordar los sesgos en los sistemas de inteligencia artificial, ya que la tecnología continúa evolucionando rápidamente y existen pocas leyes para regularla. La Casa Blanca publicó esta semana un "Plan para una Declaración de derechos de la IA", que argumenta que se ha descubierto que los algoritmos utilizados en la contratación "reflejan y reproducen desigualdades no deseadas existentes" o incorporan nuevos "sesgos y discriminación". El plan, que no es legalmente vinculante ni es una política oficial del gobierno, insta a las empresas a garantizar que la IA no discrimine ni viole la privacidad de los datos, y que informe a los usuarios cuándo se está utilizando la tecnología.

Para qué vigilar

En una lista de recomendaciones, los autores del Sunday's Filosofía y Tecnología El artículo sugirió que las empresas que desarrollan tecnologías de IA se centren en desigualdades sistemáticas más amplias en lugar de "casos individualizados de sesgo". Por ejemplo, sugieren que los desarrolladores de software examinen las categorías utilizadas para ordenar, procesar y categorizar a los candidatos y cómo estas categorías pueden promover la discriminación al basarse en ciertas suposiciones sobre género y raza. Los investigadores también sostienen que los profesionales de recursos humanos deberían tratar de comprender cómo funcionan las herramientas de reclutamiento de IA y cuáles son algunas de sus posibles limitaciones.

Hecho sorprendente

La Unión Europea ha clasificado el software de contratación impulsado por IA y las herramientas de evaluación del desempeño como de "alto riesgo" en su nuevo borrador marco legal sobre IA, lo que significa que las herramientas estarían sujetas a un mayor escrutinio y tendrían que cumplir con ciertos requisitos de cumplimiento.

OTRAS LECTURAS

DC quiere liderar la lucha contra el sesgo de la IA (Axios)

Fuente: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/