Los algoritmos de contratación no son neutrales

Los algoritmos de contratación no son neutrales


Cada vez más, los gerentes de recursos humanos confían en algoritmos basados en datos para ayudar con las decisiones de contratación y para navegar por un vasto grupo de posibles candidatos a puestos. Estos sistemas de software pueden, en algunos casos, ser tan eficientes en los currículos de cribado y la evaluación de pruebas de personalidad que 72% de los currículums se eliminan antes de que un humano los vea. Pero hay inconvenientes en este nivel de eficiencia. Los algoritmos artificiales son falibles y pueden reforzar inadvertidamente la discriminación en las prácticas de contratación. Cualquier gerente de recursos humanos que utilice un sistema de este tipo debe ser consciente de sus limitaciones y tener un plan para lidiar con ellas.

Los algoritmos son, en parte, nuestras opiniones incrustadas en código. Reflejan sesgos humanos y prejuicios que conducen a errores de aprendizaje automático e interpretaciones erróneas. Este sesgo se manifiesta en numerosos aspectos de nuestras vidas, incluyendo algoritmos utilizados para el descubrimiento electrónico, evaluaciones de profesores, seguros de automóviles, rankings de puntuación crediticia y admisiones universitarias.

Los algoritmos implementados en la primera línea de la toma de decisiones de RRHH pueden reducir costos y agilizar la investigación en departamentos ocupados o empresas con grandes necesidades de contratación, pero el riesgo es que terminen excluyendo a los solicitantes por motivos de género, raza, edad, discapacidad o servicio militar, todas las clases protegidas bajo la ley laboral.

En su núcleo, los algoritmos imitan la toma de decisiones humanas. Por lo general, están entrenados para aprender de éxitos pasados, lo que puede incrustar sesgos existentes. Por ejemplo, en un famoso experimento, los reclutadores revisaron currículos idénticos y seleccionaron más candidatos con nombres que suenan blancos que con los que suenan negros. Si el algoritmo aprende cómo se ve un contrato «bueno» basado en ese tipo de datos sesgados, tomará decisiones de contratación sesgadas. El resultado es que el software de cribado automático de currículum a menudo evalúa a los solicitantes de empleo en función de criterios subjetivos, como el nombre de uno. Al adherir a las características incorrectas, este enfoque descuenta el verdadero potencial del candidato.

En otras palabras, los algoritmos no son neutrales. Cuando los seres humanos crean software de detección algorítmica, pueden determinar involuntariamente qué solicitantes serán seleccionados o rechazados en base a información obsoleta —que se remonta a una época en que había menos mujeres en la fuerza de trabajo, por ejemplo— que conduce a un resultado legal y moralmente inaceptable.

Una forma de evitar el sesgo algorítmico es dejar de tomar decisiones de cribado difíciles basadas únicamente en un algoritmo. Fomentar una revisión humana que pida a las personas experimentadas que han pasado por cursos de sesgo que supervisen la selección y evaluación. Deje que las decisiones sean guiadas por un individuo informado de algoritmo, en lugar de por un algoritmo solo.

Si cada decisión de Recursos Humanos no puede ser revisada por ojos humanos, su primer paso debería ser aceptar que los algoritmos son imperfectos. Si bien hay buenos algoritmos que se han calibrado correctamente para medir los resultados de manera eficiente y precisa, tal éxito no ocurre por accidente. Necesitamos auditar y modificar los algoritmos para que no perpetúen las desigualdades en las empresas y la sociedad. Considere la posibilidad de asignar un equipo o contratar profesionales externos para auditar algoritmos clave. El uso de varios algoritmos también podría ayudar a limitar los puntos ciegos. De esta manera, ninguna métrica única, como la puntuación SAT, excluiría a un candidato calificado.

Además, usted puede abogar por un sistema de observación y control más riguroso. Realizar periódicamente comprobaciones aleatorias de las decisiones de reanudación de la máquina y ponerlas a través de una extensa revisión humana para ver qué candidatos ha estado seleccionando el algoritmo y por qué, con un fuerte énfasis en descubrir posibles casos de sesgo.

Finalmente, realice regularmente revisiones manuales de las correlaciones que aprende la máquina y elimine selectivamente las que puedan parecer sesgadas. Usted no debe basar sus decisiones de contratación en correlaciones relacionadas con el nombre de una persona o actividades extracurriculares, por ejemplo, ya que pueden ser indicativas de la edad, raza o clase de un candidato, no sus calificaciones.

Los gestores de recursos humanos también deben hacerse conscientes de los algoritmos que pueden ayudar a mitigar sus propios sesgos humanos. Por ejemplo, a veces el sesgo comienza con la lista de trabajo. Sin darse cuenta de ello, los escritores espolvorean copia con palabras clave o frases que suenan a la moda pero contienen señales que disuaden a ciertos candidatos de solicitar el rol. En el reclutamiento tecnológico, fragmentos como «codificación ninja querido» tienen una connotación que es probable que amortigua el interés de los candidatos y mujeres mayores. Muchas empresas están tan preocupadas por los anuncios con significantes ocultos que utilizan plataformas de aprendizaje automático como Textio (una empresa de cartera de Bloomberg Beta) para marcar palabras potencialmente problemáticas y sugerir alternativas que funcionen mejor. Programas como el software de funciones unitivas que ayuda a los empleadores a escribir descripciones inclusivas de puestos y hace responsables a los gerentes de contratación durante todo el proceso de entrevista si ignoran los criterios que dijeron que eran importantes.

¿Pueden eliminarse completamente los sesgos y los prejuicios de la contratación? Tanto para métodos algorítmicos como humanos, la respuesta es «probablemente no». Pero a medida que los big data, los algoritmos de aprendizaje automático y la analítica de personas asuman un papel más importante y más influyente en la contratación, los profesionales de Recursos Humanos deben considerar las consecuencias de estos sistemas y asegurarse de que siempre reflejan las mejores intenciones humanas.

Escrito por Gideon Mann Gideon Mann Cathy O'Neil