4 cosas a tener en cuenta antes de empezar a utilizar la IA en las decisiones de personal

¿Qué candidato debemos contratar? ¿Quién debería ser ascendido? ¿Cómo debemos elegir qué personas tienen qué turnos? Con la esperanza de tomar decisiones mejores y más justas sobre asuntos de personal como estos, las empresas adoptan cada vez más las herramientas de IA solo para descubrir que también pueden tener sesgos. ¿Cómo podemos decidir si mantener a los gerentes humanos o optar por la IA? Este artículo ofrece cuatro consideraciones.

••• La promesa inicial de la inteligencia artificial como una herramienta amplia para resolver problemas empresariales ha dado paso a algo mucho más limitado, pero que sigue siendo muy útil: algoritmos de la ciencia de datos que hacen predicciones mejores de las que hemos podido hacer hasta ahora. A diferencia de los modelos estadísticos estándar que se centran en uno o dos factores que ya se sabe que están asociados a un resultado, como el rendimiento laboral, los algoritmos de aprendizaje automático son independientes de qué variables han funcionado antes o por qué funcionan. Cuantos más, mejor: los reúne todos y produce un modelo para predecir algunos resultados, como quién será un buen empleado, lo que da a cada candidato una puntuación única y fácil de interpretar en cuanto a la probabilidad de que tenga un buen desempeño en un trabajo. Sin duda porque la promesa de estos algoritmos era tan grande, el reconocimiento de[sus limitaciones](/2019/05/recruiting#expanding-the-pool) también ha recibido mucha atención, sobre todo teniendo en cuenta que si los datos iniciales utilizados para crear el modelo están sesgados, el algoritmo generado a partir de esos datos perpetuará ese sesgo. Los ejemplos más conocidos están en[organizaciones que discriminaban a las mujeres](https://fortune) en el pasado, cuando los datos de desempeño laboral también estaban sesgados, y eso significaba que los algoritmos basados en esos datos también estaban sesgados. Entonces, ¿cómo deben proceder los empleadores al contemplar la posibilidad de adoptar la IA para tomar decisiones de personal? Estas son cuatro consideraciones: **1. El algoritmo puede estar menos sesgado que las prácticas existentes que generan los datos en primer lugar.** No idealicemos lo poco que es el juicio humano y lo desorganizadas que están la mayoría de nuestras prácticas de gestión de personas en la actualidad. Cuando delegamos la contratación en supervisores individuales, por ejemplo, es muy probable que cada uno de ellos tenga muchos sesgos a favor y en contra de los candidatos en función de atributos que no tienen nada que ver con un buen desempeño: el supervisor A puede preferir a los candidatos que se graduaron en una universidad en particular porque ella fue allí, mientras que el supervisor B puede hacer lo contrario porque tuvo una mala experiencia con algunos de sus graduados. Al menos los algoritmos tratan a todos los que tienen los mismos atributos por igual, aunque no necesariamente de manera justa. **2. Puede que no tengamos buenas medidas de todos los resultados que nos gustaría predecir y puede que no sepamos cómo sopesar los distintos factores a la hora de tomar las decisiones finales.** Por ejemplo, ¿qué es lo que hace que sea un «buen empleado»? Tienen que cumplir bien sus tareas, también deben llevarse bien con sus colegas, adaptarse a la «cultura», quedarse con nosotros y no dejar de fumar, etc. Centrarse solo en un aspecto en el que tengamos medidas nos llevará a un algoritmo de contratación que seleccione ese aspecto, a menudo cuando no está estrechamente relacionado con otros aspectos, como un vendedor que es muy bueno con los clientes pero miserable con sus compañeros de trabajo. Una vez más, no está claro que lo que estamos haciendo ahora sea mejor: un supervisor individual que tome una decisión de ascenso puede, en teoría, tener en cuenta todos esos criterios, pero cada evaluación está cargada de sesgos y la forma en que se ponderan es arbitraria. Lo sabemos de[investigación rigurosa](https://www.nber.org/papers/w21709) que cuanto más usen los directores de contratación su propio juicio en estos asuntos, peores serán sus decisiones. **3. Los datos que utiliza la IA pueden plantear cuestiones morales.** Los algoritmos que predicen la rotación, por ejemplo, ahora suelen basarse en los datos de las redes sociales, como las publicaciones en Facebook. Puede que decidamos que recopilar esos datos sobre nuestros empleados es una invasión de la privacidad, pero no usarlos tiene el precio de modelos que predicen menos bien. También puede darse el caso de que un algoritmo haga un buen trabajo en general al predecir algo para el empleado medio, pero haga un mal trabajo para algún subgrupo de empleados. Puede que no sorprenda, por ejemplo, descubrir que los modelos de contratación que eligen nuevos vendedores no funcionan bien a la hora de elegir ingenieros. La solución parece ser simplemente tener modelos distintos para cada uno. Pero, ¿y si los diferentes grupos son hombres y mujeres o blancos y afroamericanos, como parece ser el caso? En esos casos, las restricciones legales nos impiden utilizar diferentes prácticas y diferentes modelos de contratación para los diferentes grupos demográficos. **4. A menudo es difícil, si no imposible, explicar y justificar los criterios en los que se basan las decisiones algorítmicas.** En la mayoría de los lugares de trabajo ahora, tenemos al menos algunos criterios aceptados para tomar decisiones laborales: él tuvo la oportunidad porque lleva más tiempo aquí; ella estaba libre este fin de semana porque tenía ese turno el fin de semana pasado; así es como hemos tratado a la gente antes. Si no consigo el ascenso o el turno que quiero, puedo presentar una queja a la persona que tomó la decisión. Él o ella tiene la oportunidad de explicar el criterio e incluso puede que me ayude la próxima vez si la decisión no le parece del todo justa. Cuando utilizamos algoritmos para impulsar esas decisiones, perdemos la capacidad de explicar a los empleados cómo se tomaron esas decisiones. El algoritmo simplemente reúne toda la información disponible para construir modelos extremadamente complicados que predicen los resultados pasados. Sería muy poco probable que esos resultados se correspondieran con algún principio que pudiéramos observar o explicar que no fuera decir: «El modelo general dice que esto funcionará mejor». El supervisor no puede evitar explicar ni abordar los problemas de imparcialidad. Especialmente cuando esos modelos no funcionan mucho mejor que los que ya estamos haciendo, vale la pena preguntarse si la irritación que causan a los empleados vale la pena. La ventaja, por ejemplo, de dejar que el empleado más sénior sea el primero en elegir su horario es que este criterio se entiende fácilmente, se corresponde con al menos algunas nociones aceptadas de equidad, es fácil de aplicar y puede tener algunos beneficios a largo plazo, como aumentar las recompensas por quedarse. Puede que haya algún momento en el que los algoritmos puedan tener en cuenta cuestiones como esta, pero ahora no estamos ni cerca de eso. Podría decirse que los modelos algorítmicos no son peores que los que estamos haciendo ahora. Pero sus problemas de imparcialidad son más fáciles de detectar porque se producen a gran escala. La manera de resolverlos es obtener más y mejores medidas, datos que no estén sesgados. Hacerlo ayudaría incluso si no utilizáramos algoritmos de aprendizaje automático para tomar decisiones de personal.