Utilizar el análisis de personas para crear un lugar de trabajo equitativo
La automatización llega a Recursos Humanos. Al automatizar la recopilación y el análisis de grandes conjuntos de datos, la IA y otras herramientas de análisis prometen mejorar todas las fases de la cartera de recursos humanos, desde la contratación y la compensación hasta los ascensos, la formación y la evaluación. Sin embargo, estos sistemas pueden reflejar sesgos históricos y discriminar por motivos de raza, género y clase. Los directivos deben tener en cuenta que 1) es probable que los modelos funcionen mejor con respecto a las personas de los grupos demográficos mayoritarios, pero peor con los grupos menos representados; 2) no existe tal cosa como un modelo verdaderamente «ciego a la raza» o «ciego al género», y omitir la raza o el género explícitamente de un modelo puede incluso empeorar las cosas; y 3) si las categorías demográficas no están distribuidas de manera uniforme en su organización (y en la mayoría no lo están), incluso los modelos cuidadosamente diseñados sí no conducen a la igualdad de resultados en todos los grupos.
••• El análisis de personas, la aplicación de métodos científicos y estadísticos a los datos de comportamiento, tiene sus orígenes en el clásico de Frederick Winslow Taylor _Los principios de la gestión científica_ en 1911, cuyo objetivo era aplicar métodos de ingeniería a la gestión de las personas. Pero no fue hasta un siglo después, tras los avances en la potencia de los ordenadores, los métodos estadísticos y, especialmente, la inteligencia artificial (IA), que el campo realmente explotó en potencia, profundidad y aplicación generalizada, especialmente, pero no solo, en la gestión de los recursos humanos (RRHH). Al automatizar la recopilación y el análisis de grandes conjuntos de datos, la IA y otras herramientas de análisis prometen mejorar todas las fases de la cartera de recursos humanos, desde la contratación y la compensación hasta los ascensos, la formación y la evaluación. Ahora, los algoritmos se utilizan para ayudar a los directivos a medir la productividad y a tomar decisiones importantes en materia de contratación, compensación, ascensos y oportunidades de formación, todo lo cual puede cambiar la vida de los empleados. Las empresas utilizan esta tecnología para identificar y cerrar las brechas salariales por género, raza u otras categorías demográficas importantes. Los profesionales de recursos humanos utilizan habitualmente herramientas basadas en la IA para filtrar los currículums con el fin de ahorrar tiempo, mejorar la precisión y descubrir patrones ocultos en las cualificaciones que se asocian a un mejor (o peor) desempeño futuro. Los modelos basados en la IA se pueden utilizar incluso para sugerir qué empleados podrían dejar de fumar en un futuro próximo. Sin embargo, a pesar de las promesas de las herramientas de análisis de personas, también pueden llevar a los directivos por un mal camino. Amazon tuvo que tirar a la basura una herramienta de selección de currículums creada por sus ingenieros porque era[sesgado contra las mujeres](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G). O piense en LinkedIn, que los profesionales utilizan en todo el mundo para establecer contactos y buscar trabajo, y los profesionales de recursos humanos para contratar. La función de completar automáticamente de la plataforma para su barra de búsqueda era [descubrió que sugería que nombres femeninos](https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias/) como «Stephanie» se sustituya por nombres masculinos como «Stephen». Por último, por el lado de la contratación, un anuncio en las redes sociales de oportunidades de campo de ciencia, tecnología, ingeniería y matemáticas (STEM) que se diseñó cuidadosamente para ser neutral en cuanto al género[se mostró de manera desproporcionada a los hombres](https://pubsonline.informs.org/doi/10.1287/mnsc.2018.3093) mediante un algoritmo diseñado para maximizar el valor de los presupuestos publicitarios de los reclutadores, ya que las mujeres son _más_ responde a los anuncios y, por lo tanto, los anuncios que se les muestran son más caros. En cada uno de estos ejemplos, se produjo una interrupción en el proceso analítico que produjo un sesgo involuntario (y a veces grave) en contra de un grupo en particular. Sin embargo, estas averías pueden y deben evitarse. Para aprovechar el potencial del análisis de personas basado en la IA, las empresas deben entender las causas fundamentales del sesgo algorítmico y cómo se reflejan en las herramientas comunes de análisis de personas. ## El proceso analítico Los datos no son neutrales. Las herramientas de análisis de personas se basan generalmente en los datos históricos de la empresa sobre la contratación, la retención, los ascensos y la compensación de sus empleados. Estos datos siempre reflejarán las decisiones y actitudes del pasado. Por lo tanto, al intentar crear el lugar de trabajo del mañana, debemos tener en cuenta cómo nuestros datos retrospectivos pueden reflejar _tanto antiguas como existentes_ sesga y puede que no capte del todo las complejidades de la gestión de personas en una fuerza laboral cada vez más diversa. Los datos pueden tener un sesgo explícito incorporado directamente; por ejemplo, las evaluaciones del desempeño de su empresa pueden haber tenido un sesgo histórico en contra de un grupo en particular. A lo largo de los años, ha corregido ese problema, pero si las evaluaciones sesgadas se utilizan para entrenar una herramienta de IA, el algoritmo heredará y propagará los sesgos en el futuro. También hay fuentes de sesgo más sutiles. Por ejemplo, el GPA de pregrado podría usarse como indicador de inteligencia, o las licencias o certificados ocupacionales pueden ser una medida de las habilidades. Sin embargo, estas medidas están incompletas y suelen contener sesgos y distorsiones. Por ejemplo, los solicitantes de empleo que tuvieron que trabajar durante la universidad —que tienen más probabilidades de provenir de entornos de bajos ingresos— pueden haber obtenido calificaciones más bajas, pero de hecho puede que sean los mejores candidatos a un puesto porque han demostrado su deseo de superar los obstáculos. Comprender los posibles desajustes entre lo que quiere medir (por ejemplo, la inteligencia o la capacidad de aprendizaje) y lo que realmente mide (por ejemplo, el rendimiento en las pruebas académicas) es importante para crear cualquier herramienta de análisis de personas, especialmente cuando el objetivo es crear un lugar de trabajo más diverso. El rendimiento de una herramienta de análisis de personas es producto tanto de los datos que suministra como del algoritmo que utiliza. A continuación, ofrecemos tres conclusiones que debe tener en cuenta a la hora de gestionar a su personal. En primer lugar, un modelo que maximice la calidad general de la predicción (el enfoque más común) probablemente tenga mejores resultados con respecto a las personas de los grupos demográficos mayoritarios, pero peor con los grupos menos representados. Esto se debe a que los algoritmos suelen maximizar la precisión general y, por lo tanto, el rendimiento de la población mayoritaria tiene más peso que el rendimiento de la población minoritaria a la hora de determinar los parámetros del algoritmo. Un ejemplo podría ser un algoritmo utilizado en una fuerza laboral compuesta en su mayoría por personas casadas o solteras y sin hijos; el algoritmo puede determinar que un aumento repentino del uso de los días personales indica una alta probabilidad de dejar de fumar, pero esta conclusión puede no aplicarse a los padres solteros que necesitan ausentarse de vez en cuando porque su hijo está enfermo. En segundo lugar, no existe un modelo verdaderamente «ciego a la raza» o «ciego al género». De hecho, omitir explícitamente la raza o el género en un modelo puede incluso empeorar las cosas. Considere este ejemplo: imagine que su herramienta de análisis de personas basada en la IA, a la que ha evitado por completo dar información sobre el género, desarrolla un sólido historial de predicción de qué empleados tienen probabilidades de dejar de fumar poco después de ser contratados. No está seguro de a qué se ha aferrado exactamente el algoritmo (la IA suele funcionar como una caja negra para los usuarios), pero evita contratar a personas que el algoritmo califica de alto riesgo y ve una buena caída en el número de nuevos empleados que dejan de fumar poco después de unirse. Sin embargo, después de algunos años, se le presenta una demanda por discriminar a las mujeres en su proceso de contratación. Resulta que el algoritmo excluía desproporcionadamente a las mujeres de un código postal determinado que carece de una guardería, lo que creaba una carga para las madres solteras. Si lo hubiera sabido, podría haber resuelto el problema ofreciendo una guardería cerca del trabajo, no solo evitando la demanda, sino que incluso se hubiera dado una ventaja competitiva a la hora de contratar mujeres de esta zona. En tercer lugar, si las categorías demográficas, como el género y la raza, están distribuidas de manera desproporcionada en su organización, como es habitual (por ejemplo, si la mayoría de los directivos en el pasado eran hombres, mientras que la mayoría de los trabajadores eran mujeres), ni siquiera los modelos cuidadosamente diseñados conducirán a la igualdad de resultados en todos los grupos. Esto se debe a que, en este ejemplo, un modelo que identifica a los futuros directivos tiene más probabilidades de clasificar erróneamente a las mujeres como _inadecuado_ para la dirección, pero clasifica erróneamente a los hombres como _adecuado_ para la dirección, incluso si el género no forma parte de los criterios del modelo. La razón, en una palabra, es que es probable que los criterios de selección del modelo estén correlacionados con el género y la aptitud directiva, por lo que el modelo tenderá a ser «incorrecto» de diferentes maneras para las mujeres y los hombres. ## Cómo hacerlo bien Por las razones anteriores (y otras), debemos ser especialmente conscientes de las limitaciones de los modelos basados en la IA y supervisar su aplicación en todos los grupos demográficos. Esto es especialmente importante para RRHH, ya que, a diferencia de las aplicaciones generales de IA, es muy probable que los datos que las organizaciones utilizan para entrenar las herramientas de IA reflejen desequilibrios que RRHH está trabajando actualmente para corregir. Por lo tanto, las empresas deben prestar mucha atención a quién está representado en los datos a la hora de crear y supervisar las aplicaciones de IA. Más concretamente, deberían analizar cómo la composición de los datos de entrenamiento puede estar distorsionando la recomendación de la IA en una dirección u otra. Una herramienta que puede resultar útil en ese sentido es un panel de sesgos que analice por separado el rendimiento de una herramienta de análisis de personas en los diferentes grupos (por ejemplo, la raza), lo que permite la detección temprana de posibles sesgos. Este panel destaca, en diferentes grupos, tanto el rendimiento estadístico como el impacto. Por ejemplo, para una solicitud de apoyo a la contratación, el panel puede resumir la precisión y el tipo de errores que comete la modelo, así como la fracción de cada grupo que fue entrevistado y finalmente fue contratado. Además de monitorear las métricas de rendimiento, los gerentes pueden realizar pruebas explícitas para detectar sesgos. Una forma de hacerlo es _excluir_ una variable demográfica en particular (por ejemplo, el género) al entrenar la herramienta basada en la IA, pero luego de forma explícita _incluir_ esa variable en un análisis posterior de los resultados. Si el género está altamente correlacionado con los resultados (por ejemplo, si hay una probabilidad desproporcionada de que se recomiende un aumento a un género), eso es una señal de que la herramienta de IA podría ser _implícitamente_ incorporar el género de una manera no deseada. Puede ser que la herramienta identificara de manera desproporcionada a las mujeres como candidatas a aumentos, ya que las mujeres tienden a estar mal pagadas en su organización. Si es así, la herramienta de IA le ayuda a resolver un problema importante. Pero también podría ser que la herramienta de IA refuerce un sesgo existente. Será necesario investigar más a fondo para determinar la causa subyacente. Es importante recordar que ningún modelo está completo. Por ejemplo, es probable que la personalidad de un empleado afecte a su éxito en la empresa sin que aparezca necesariamente en los datos de recursos humanos de ese empleado. Los profesionales de recursos humanos deben estar atentos a estas posibilidades y documentarlas en la medida de lo posible. Si bien los algoritmos pueden ayudar a interpretar los datos del pasado e identificar patrones, el análisis de personas sigue siendo un campo centrado en las personas y, en muchos casos, especialmente los más difíciles, las decisiones finales las seguirán tomando los humanos, como se refleja en la popular frase actual «análisis humano en bucle». Para ser eficaces, estas personas tienen que ser conscientes del sesgo del aprendizaje automático y de las limitaciones del modelo, supervisar el despliegue de los modelos en tiempo real y estar preparados para tomar las medidas correctivas necesarias. Un proceso consciente de los sesgos incorpora el juicio humano en cada paso analítico, incluido el conocimiento de cómo las herramientas de IA pueden amplificar los sesgos a través de circuitos de retroalimentación. Un ejemplo concreto es cuando las decisiones de contratación se basan en el «ajuste cultural» y cada ciclo de contratación atrae a más empleados similares a la organización, lo que a su vez reduce aún más el ajuste cultural, lo que podría ir en contra de los objetivos de diversidad. En este caso, puede que sea necesario ampliar los criterios de contratación además de perfeccionar la herramienta de IA. El análisis de personas, especialmente basado en la IA, es una herramienta increíblemente poderosa que se ha vuelto indispensable en los recursos humanos modernos. Pero los modelos cuantitativos están destinados a ayudar, no a reemplazar, el juicio humano. Para aprovechar al máximo la IA y las herramientas de análisis de otras personas, tendrá que supervisar de forma coherente el funcionamiento de la aplicación en tiempo real, qué criterios explícitos e implícitos se utilizan para tomar decisiones y entrenar la herramienta, y si los resultados afectan a los diferentes grupos de manera no deseada. Al hacer las preguntas correctas sobre los datos, el modelo, las decisiones y los proveedores de software, los gerentes pueden aprovechar con éxito el poder del análisis de personas para crear los lugares de trabajo equitativos y de alto rendimiento del mañana.