¿Por qué no deberías usar IA para contratar a alguien?

Estamos entusiasmados de traer de vuelta Transform 2022 en persona el 19 de julio y virtualmente del 20 al 28 de julio. Únase a los líderes de inteligencia artificial y datos para charlas perspicaces y oportunidades emocionantes para establecer contactos. ¡Regístrese hoy!


En mis primeros años en tecnología, y más tarde, como alguien que desarrolló un software de reclutamiento impulsado por inteligencia artificial, aprendí de primera mano cómo la IA y el aprendizaje automático pueden crear sesgos en la contratación. En varios contextos diferentes, vi cómo la IA en la contratación a menudo amplifica y exacerba los mismos problemas que uno generalmente comenzaría siendo optimista de que "resolvería". En los casos en los que pensamos que ayudaría a eliminar el sesgo o aumentar la "equidad" en términos de embudos de candidatos, a menudo nos sorprendería encontrar exactamente lo contrario en la práctica.

Hoy, mi función en CodePath combina mi experiencia en IA e ingeniería con nuestro compromiso de brindarles a los estudiantes de informática de comunidades minoritarias de bajos ingresos o subrepresentadas un mayor acceso a trabajos tecnológicos. Mientras considero las formas en que nuestra organización sin fines de lucro puede lograr ese objetivo, a menudo me pregunto si nuestros estudiantes se están enfrentando a los mismos sesgos de contratación relacionados con la IA que presencié de primera mano varias veces durante la última década. Si bien la IA tiene un tremendo potencial para automatizar algunas tareas de manera efectiva, no creo que sea apropiada en ciertos casos de uso matizados y altamente subjetivos con conjuntos de datos complejos y resultados poco claros. La contratación es uno de esos casos de uso.

Confiar en la IA para la contratación puede causar más daño que bien.

Eso no es por diseño. Los gerentes de relaciones humanas generalmente comienzan los procesos de contratación impulsados ??por IA con buenas intenciones, es decir, el deseo de reducir los candidatos a los más calificados y que mejor se adapten a la cultura de la empresa. Estos gerentes recurren a la IA como una forma objetiva y confiable de filtrar a los mejores y más brillantes de una enorme pila electrónica de currículos.

El error surge cuando esos gerentes asumen que la IA está entrenada para evitar los mismos sesgos que podría mostrar un humano. En muchos casos, eso no sucede; en otros, los diseñadores de IA, sin saberlo, entrenaron los algoritmos para tomar acciones que afectan directamente a ciertos candidatos de trabajo, como rechazar automáticamente a las candidatas o personas con nombres asociados con minorías étnicas o religiosas. Muchos líderes del departamento de relaciones humanas se sorprendieron al descubrir que sus programas de contratación están tomando medidas que, si fueran realizadas por un ser humano, resultarían en el despido.

A menudo, las personas bien intencionadas en posiciones para tomar decisiones de contratación intentan corregir los errores de programación que crean los sesgos. Todavía no he visto a nadie descifrar ese código.

La IA efectiva requiere tres cosas: productos y resultados claros; datos limpios y claros; y datos a escala. La IA funciona mejor cuando tiene acceso a grandes cantidades de datos medidos objetivamente, algo que no se encuentra en la contratación. Los datos sobre los antecedentes educativos de los candidatos, las experiencias laborales anteriores y otros conjuntos de habilidades a menudo se confunden con suposiciones y sesgos complejos que se entrecruzan. Las muestras son pequeñas, los datos son imposibles de medir y los resultados no están claros, lo que significa que es difícil para la IA saber qué funcionó y qué no.

Desafortunadamente, cuanto más repite la IA estas acciones sesgadas, más aprende a realizarlas. Crea un sistema que codifica el sesgo, que no es la imagen que la mayoría de las empresas con visión de futuro quieren proyectar a los posibles reclutas. Esta es la razón por la cual Illinois, Maryland y la ciudad de Nueva York están promulgando leyes que prohíben el uso de IA en las decisiones de contratación, y por qué la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. está investigando el papel que juegan las herramientas de IA en la contratación. También es la razón por la que empresas como Walmart, Meta, Nike, CVS Health y otras, bajo el paraguas de The Data & Trust Alliance, están erradicando el sesgo en sus propios algoritmos de contratación.

La solución simple es evitar por completo el uso de IA en la contratación. Si bien esta sugerencia puede parecer una carga para las empresas con poco tiempo que buscan automatizar tareas rutinarias, no tiene por qué serlo.

Por ejemplo, dado que CodePath prioriza las necesidades de los estudiantes de minorías subrepresentadas y de bajos ingresos, no podíamos arriesgarnos a usar un sistema de IA sesgado para vincular a los graduados de nuestro programa con los mejores empleadores tecnológicos. Así que creamos nuestra propia herramienta de compatibilidad que no usa IA o ML pero que aún funciona a escala. Se basa en la automatización solo para datos puramente objetivos, rúbricas simples o puntaje de compatibilidad, todos los cuales son monitoreados por humanos que son sensibles al problema del sesgo en la contratación. Además, solo automatizamos datos autoinformados o estrictamente cuantitativos, lo que reduce la probabilidad de sesgo.

Para aquellas empresas que se sienten obligadas a confiar en la tecnología de inteligencia artificial en sus decisiones de contratación, existen formas de reducir el daño potencial:

1. Reconocer el riesgo de sesgo que presentan las herramientas de contratación impulsadas por IA

No se deje atrapar por la idea de que la IA va a tener razón. Los algoritmos son tan libres de sesgos como las personas que los crean (y los supervisan). Una vez que los conjuntos de datos y los algoritmos se convierten en fuentes confiables, las personas ya no se sienten obligadas a supervisarlos. Desafía la tecnología. Cuestionarlo. Pruébalo. Encuentre esos sesgos y elimínelos.

Las empresas deberían considerar la creación de equipos de profesionales de contratación y tecnología que monitoreen los datos, eliminen problemas y desafíen continuamente los resultados producidos por la IA. Los humanos en esos equipos pueden detectar posibles sesgos y eliminarlos o compensarlos.

2. Tenga en cuenta sus fuentes de datos y su responsabilidad

Si los únicos conjuntos de datos que su IA está entrenada para revisar provienen de empresas que históricamente han contratado a pocas mujeres o minorías, no se sorprenda cuando los algoritmos arrojan los mismos resultados sesgados. Pregúntese: ¿Me siento cómodo con estos datos? ¿Comparto los mismos valores que la fuente? Las respuestas a estas preguntas permiten una evaluación cuidadosa de conjuntos de datos o heurísticas.

También es importante ser consciente de la responsabilidad de su empresa de tener sistemas de contratación imparciales. Incluso ser un poco más consciente de estas posibilidades puede ayudar a reducir el daño potencial.

3. Use formas más simples y directas para identificar la compatibilidad entre un candidato y un puesto vacante

La mayoría de las soluciones de compatibilidad no requieren ninguna IA mágica ni heurísticas elaboradas y, a veces, volver a lo básico puede funcionar mejor. Elimine el concepto de IA y pregúntese: ¿Cuáles son las cosas en las que todos podemos estar de acuerdo que aumentan o reducen la compatibilidad en este rol?

Use IA solo para métricas de compatibilidad objetivas en decisiones de contratación, como habilidades autoinformadas o comparación de información con las necesidades expresas del rol. Estos proporcionan conjuntos de datos limpios y claros que se pueden medir de manera precisa y justa. Deje los filtros más complicados, ambiguos o matizados a seres humanos reales que entienden mejor la combinación de conocimientos y habilidades que los candidatos necesitan para tener éxito. Por ejemplo, considere usar un software que automatice algunos de los procesos, pero que aún permita un elemento de supervisión humana o la toma de decisiones finales. Automatice solo aquellas funciones que pueda medir de manera justa.

Dada la cantidad de herramientas de contratación impulsadas por IA que impactan en la vida de las personas con mayor riesgo de sesgo, les debemos proceder con esta tecnología con extrema precaución. En el mejor de los casos, puede dar lugar a malas decisiones de contratación por parte de empresas que no pueden permitirse el tiempo y los gastos necesarios para volver a cubrir los puestos. En el peor de los casos, puede impedir que las personas inteligentes y talentosas obtengan trabajos bien remunerados en campos de alta demanda, limitando no solo su movilidad económica sino también su derecho a vivir vidas felices y exitosas.

Nathan Esquenazi es cofundador y director de tecnología de CodePath, una organización sin fines de lucro que busca crear diversidad en tecnología transformando la educación universitaria en informática para minorías subrepresentadas y poblaciones desatendidas. También es miembro del grupo de expertos Cognitive World sobre IA empresarial.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es donde los expertos, incluidos los técnicos que trabajan con datos, pueden información e innovación relacionadas con los datos.

Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podría considerar contribuir con un artículo propio!

Leer más de DataDecisionMakers

¿Cómo se utiliza la IA para la contratación?

AI cambiará el rol del reclutador a través de la inteligencia aumentada, lo que permitirá a los reclutadores ser más proactivos en su contratación, ayudará a determinar la adecuación cultural de un candidato y mejorará sus relaciones con los gerentes de contratación mediante el uso de datos para medir KPI, como la calidad de la contratación.

Por qué la IA no debe usarse en la contratación

Dada la cantidad de herramientas de contratación impulsadas por IA que impactan en la vida de las personas con mayor riesgo de sesgo, les debemos proceder con esta tecnología con extrema precaución. En el mejor de los casos, puede dar lugar a malas decisiones de contratación por parte de empresas que no pueden permitirse el tiempo y los gastos necesarios para volver a cubrir los puestos.

¿La IA está sesgada en la contratación?

Si bien, en teoría, la IA ofrece un proceso de contratación más rentable, específico y eficiente al ayudar a las organizaciones a filtrar volúmenes de currículos, en realidad, puede promover la contratación sesgada debido a su dependencia de patrones de selección inconscientemente prejuiciosos, como el idioma y la demografía.

¿Qué es negativo en el uso de IA en las prácticas de contratación?

Los peligros del sesgo en la IA

Entrene sus algoritmos con datos que no reflejen el panorama actual y obtendrá resultados erróneos. Como tal, con la contratación, especialmente en una industria como TI, que históricamente ha tenido problemas con la diversidad, entrenar un algoritmo con datos históricos de contratación puede ser un gran error.

Video: using ai for hiring

Ir arriba