Todas las formas en que los algoritmos de contratación pueden introducir sesgos

Comprender los sesgos en los algoritmos de contratación y las formas de mitigarlos requiere que exploremos cómo funcionan las tecnologías predictivas en cada paso del proceso de contratación. Aunque suelen compartir la columna vertebral del aprendizaje automático, las herramientas que se utilizan al principio del proceso pueden ser fundamentalmente diferentes a las que se utilizan más adelante. Incluso las herramientas que parecen realizar la misma tarea pueden basarse en tipos de datos completamente diferentes o presentar las predicciones de formas sustancialmente diferentes. Un análisis de las herramientas predictivas a lo largo del proceso de contratación ayuda a aclarar qué hacen los «algoritmos de contratación» y dónde y cómo pueden entrar los sesgos en el proceso. Lamentablemente, la mayoría de los algoritmos de contratación se inclinan hacia el sesgo por defecto. Si bien no hay que descartar su potencial para ayudar a reducir los prejuicios interpersonales, solo las herramientas que aborden de forma proactiva las disparidades más profundas ofrecerán la esperanza de que la tecnología predictiva pueda ayudar a promover la equidad, en lugar de erosionarla.

••• ¿Los algoritmos de contratación previenen el sesgo o lo amplifican? Esta pregunta fundamental se ha convertido en un punto de tensión entre los defensores de la tecnología y sus escépticos, pero encontrar la respuesta es más complicado de lo que parece. La contratación rara vez es una decisión única, sino más bien la culminación de una serie de decisiones secuenciales más pequeñas. Los algoritmos desempeñan diferentes funciones a lo largo de este proceso: algunos dirigen los anuncios de empleo a determinados candidatos, mientras que otros marcan a los candidatos pasivos para su contratación. Las herramientas predictivas analizan y puntúan los currículums y ayudan a los directores de contratación a evaluar las competencias de los candidatos de nuevas formas, utilizando datos tradicionales y novedosos. Muchos[esperanza](/2018/07/want-less-biased-decisions-use-algorithms) que los algoritmos ayudarán a los responsables humanos de la toma de decisiones a evitar sus propios prejuicios al añadir coherencia al proceso de contratación. Pero los algoritmos introducen sus propios riesgos nuevos. Pueden replicar los sesgos institucionales e históricos, lo que amplifica las desventajas que se esconden en los puntos de datos, como la asistencia a la universidad o las puntuaciones de las evaluaciones del desempeño. Incluso si los algoritmos eliminan parte de la subjetividad del proceso de contratación, las personas siguen participando en gran medida en las decisiones finales de contratación. Los argumentos que consideran que los algoritmos «objetivos» son más justos y precisos que los humanos falibles no reconocen plenamente que, en la mayoría de los casos, ambos desempeñan un papel. Comprender los sesgos en los algoritmos de contratación y las formas de mitigarlos requiere que exploremos cómo funcionan las tecnologías predictivas en _cada paso_ del proceso de contratación. Aunque suelen compartir la columna vertebral del aprendizaje automático, las herramientas que se utilizan al principio del proceso pueden ser fundamentalmente diferentes a las que se utilizan más adelante. Incluso las herramientas que parecen realizar la misma tarea pueden basarse en tipos de datos completamente diferentes o presentar las predicciones de formas sustancialmente diferentes. Nuestro[análisis](https://www.upturn.org/reports/2018/hiring-algorithms/) de las herramientas predictivas en todo el proceso de contratación ayudan a aclarar qué hacen los «algoritmos de contratación» y dónde y cómo pueden entrar los sesgos en el proceso. Lamentablemente, hemos descubierto que la mayoría de los algoritmos de contratación se inclinan hacia el sesgo por defecto. Si bien no hay que descartar su potencial para ayudar a reducir los prejuicios interpersonales, solo las herramientas que aborden de forma proactiva las disparidades más profundas ofrecerán la esperanza de que la tecnología predictiva pueda ayudar a promover la equidad, en lugar de erosionarla. **Dar forma a la lista de candidatos** El proceso de contratación comienza mucho antes de que el solicitante de empleo presente una solicitud. Durante la fase de «búsqueda» o contratación, las tecnologías predictivas ayudan a anunciar las ofertas de trabajo, a notificar a los solicitantes de empleo sobre los puestos potencialmente atractivos y a presentar a los posibles candidatos a los reclutadores para una divulgación proactiva. Para atraer a los candidatos, muchos empleadores utilizan plataformas de anuncios algorítmicos y bolsas de trabajo para llegar a los solicitantes de empleo más «relevantes». Estos sistemas, que prometen a las empresas un uso más eficiente de los presupuestos de contratación, suelen hacer predicciones muy superficiales: no predicen quién tendrá éxito en el puesto, sino quién tiene más probabilidades de hacer clic en ese anuncio de trabajo. Estas predicciones pueden llevar a que los anuncios de empleo se publiquen de una manera que refuerce los estereotipos raciales y de género, incluso cuando los empleadores no tienen esa intención. En un reciente[estudio](https://arxiv.org/abs/1904.02095) que realizamos junto con colegas de la Universidad Northeastern y la USC, descubrimos, entre otras cosas, que los anuncios muy segmentados en Facebook para puestos de cajeras de supermercados se mostraban a una audiencia compuesta por un 85% de mujeres, mientras que los trabajos en compañías de taxis iban a un público compuesto aproximadamente por un 75% de personas negras. Este es el caso por excelencia de un algoritmo que reproduce sesgos del mundo real, sin intervención humana. Mientras tanto, las bolsas de trabajo personalizadas, como ZipRecruiter, tienen como objetivo conocer automáticamente las preferencias de los reclutadores y utilizar esas predicciones para solicitar candidatos similares. Al igual que Facebook, estos sistemas de recomendaciones están diseñados específicamente para encontrar y replicar los patrones de comportamiento de los usuarios, actualizando las predicciones de forma dinámica a medida que los empleadores y los solicitantes de empleo interactúan. Si el sistema se da cuenta de que los reclutadores interactúan más a menudo con hombres blancos, es muy posible que encuentre sustitutos para esas características (como[llamarse Jared o jugar al lacrosse en el instituto](https://qz.com/1427621/companies-are-on-the-hook-if-their-hiring-algorithms-are-biased/)) y replicar ese patrón. Este tipo de impacto adverso puede ocurrir sin instrucciones explícitas y, lo que es peor, sin que nadie se dé cuenta. Es probable que los algoritmos de abastecimiento no sean lo más importante para la mayoría de las personas cuando piensan en «algoritmo de contratación». Pero las decisiones automatizadas en esta etapa temprana del embudo de contratación están muy extendidas. Por ejemplo, la herramienta[Amazon desechado](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G) para las mujeres en desventaja no era una herramienta de selección para evaluar a los candidatos reales, sino una herramienta para ayudar a descubrir candidatos pasivos para que los reclutadores los solicitaran. Es posible que los algoritmos de abastecimiento no rechacen abiertamente a los solicitantes, pero como la académica en derecho Pauline Kim sí[argumentó](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3214898), «no informar a la gente de una oportunidad laboral es un obstáculo muy eficaz» para que las personas busquen trabajo. Puede que estas herramientas no siempre lleguen a titulares distópicos, pero desempeñan un papel fundamental a la hora de determinar quién tiene acceso al proceso de contratación. **Estrechar el embudo** Una vez que las solicitudes comienzan a llegar, los empleadores buscan centrarse en los candidatos más fuertes. Si bien los algoritmos utilizados en esta etapa suelen presentarse como ayudas a la toma de decisiones para los directores de contratación, en realidad, pueden rechazar automáticamente a una proporción significativa de los candidatos. Algunos de estos algoritmos de detección son simplemente técnicas antiguas disfrazadas de nueva tecnología. Los empleadores llevan mucho tiempo haciendo «preguntas eliminatorias» para determinar si los candidatos tienen una cualificación mínima; ahora, los chatbots y las herramientas de análisis de currículums realizan esta tarea. Otras herramientas van más allá y utilizan el aprendizaje automático para hacer predicciones basadas en decisiones de selección anteriores, lo que ahorra tiempo a los empleadores y, supuestamente, minimiza el efecto de los prejuicios humanos. A primera vista, puede parecer natural que las herramientas de selección modelen las decisiones de contratación anteriores. Pero esas decisiones suelen reflejar los mismos patrones que muchos empleadores están intentando cambiar activamente a través de iniciativas de diversidad e inclusión. Otras herramientas de selección incorporan el aprendizaje automático para predecir qué candidatos tendrán «éxito» en el puesto, y a menudo se mide mediante señales relacionadas con la permanencia, la productividad o el rendimiento (o por la ausencia de señales como tardanza o medidas disciplinarias). Las herramientas más nuevas de este espacio pretenden ayudar a los empleadores a utilizar señales más sutiles para hacer sus predicciones, como el análisis de juegos o vídeos. Cabe destacar que en los Estados Unidos, este tipo de procedimientos de selección se rigen por las normas tradicionales. Los empleadores son[obligado](http://uniformguidelines.com/uniformguidelines.html#20) para inspeccionar sus instrumentos de evaluación para ver si tienen un impacto adverso en los subgrupos demográficos y se le puede hacer responsable por el uso de procedimientos que favorecen demasiado a un grupo determinado de solicitantes. Varios proveedores de evaluación describen en detalle las medidas que toman para «eliminar el sesgo» de sus algoritmos, medidas que también se utilizan para garantizar que sus clientes cumplan con la ley. Pero el solo hecho de diferenciar a los de alto rendimiento de los de bajo rendimiento[a menudo refleja evaluaciones subjetivas](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=788066) , que es una fuente conocida de discriminación en los lugares de trabajo. Si los datos de rendimiento subyacentes están contaminados por los efectos persistentes del sexismo, el racismo u otras formas de sesgo estructural, eliminar el sesgo de un algoritmo de contratación creado a partir de esos datos no es más que una curita para una herida supurante. Y si un empleador puede demostrar que su herramienta de selección sirve a un interés empresarial concreto (un listón relativamente bajo), puede justificar fácilmente el uso de un algoritmo de selección que conduzca a resultados inequitativos. Algunos psicólogos industriales y organizativos, que participan a menudo en el desarrollo de los procedimientos de contratación, se muestran escépticos a la hora de basarse únicamente en correlaciones ateóricas como base para las nuevas herramientas de selección, pero nada en las directrices reglamentarias actuales exige que los empleadores hagan mucho más. Por último, una vez que la empresa selecciona a un candidato para contratarlo, otras herramientas predictivas ayudan al empleador a hacer una oferta que el candidato probablemente acepte. Estas herramientas podrían subvertir las leyes que prohíben a los empleadores preguntar directamente por el historial salarial, fijar —o al menos dificultar la corrección— los patrones de disparidad salarial de larga data. **Orientar los algoritmos de contratación hacia la equidad** Si bien la legislación estadounidense vigente impone algunas restricciones a los empleadores a utilizar herramientas de contratación predictiva, no está preparada para abordar los riesgos cambiantes que presentan las herramientas de contratación mejoradas con el aprendizaje automático. Entonces, ¿cómo podemos asegurarnos de que los algoritmos de contratación promuevan realmente la equidad? La regulación (que es lenta) y las mejores prácticas del sector (que son incipientes) sin duda tienen un papel que desempeñar. Mientras tanto, los vendedores crean herramientas de contratación predictiva y los empleadores que las utilizan deben pensar _más allá_ requisitos mínimos de cumplimiento. Deben considerar claramente si sus algoritmos realmente producen resultados de contratación más equitativos. Antes de implementar cualquier herramienta predictiva, deberían evaluar cómo las medidas subjetivas del éxito podrían influir negativamente en las predicciones de una herramienta a lo largo del tiempo. Y más allá de simplemente comprobar el impacto adverso en la fase de selección, los empleadores deberían supervisar su cartera de principio a fin para detectar los lugares en los que el sesgo latente se esconde o surge de nuevo. A menos que quienes promocionan el potencial de los algoritmos para reducir los sesgos en la contratación opten por crear y probar sus herramientas de forma proactiva con ese objetivo en mente, la tecnología, en el mejor de los casos, tendrá dificultades para cumplir esa promesa y, en el peor, la socavará.