Creación de IA ética para la gestión del talento
La inteligencia artificial ha perturbado todas las áreas de nuestras vidas, desde las experiencias de compra seleccionadas que hemos llegado a esperar de empresas como Amazon y Alibaba hasta las recomendaciones personalizadas que canales como YouTube y Netflix utilizan para comercializar su último contenido. Pero, cuando se trata del lugar de trabajo, de muchas maneras, la IA todavía está en su infancia. Esto es particularmente cierto cuando tenemos en cuenta las formas en que está empezando a cambiar la gestión del talento. Para usar una analogía familiar: AI en el trabajo está en el modo de acceso telefónico. La fase 5G WiFi aún no ha llegado, pero no tenemos ninguna duda de que lo hará.
Para estar seguro, hay mucha confusión en torno a lo que la IA puede y no puede hacer, así como diferentes perspectivas sobre cómo definirlo. En la guerra por el talento, sin embargo, la IA juega un papel muy específico: dar a las organizaciones más precisas y más predicciones eficientes de los comportamientos relacionados con el trabajo y el potencial de rendimiento de un candidato. A diferencia de los métodos tradicionales de contratación, como las referencias a los empleados, el examen de CV y las entrevistas cara a cara, la IA es capaz de encontrar patrones no vistos por el ojo humano.
Muchos sistemas de IA utilizan personas reales como modelos de cómo se ve el éxito en ciertos roles. Este grupo de individuos se conoce como un « conjunto de datos de formación» y a menudo incluye a los administradores o al personal que han sido definidos como «de alto rendimiento». Los sistemas de IA procesan y comparan los perfiles de varios solicitantes de empleo con el empleado «modelo» que ha creado basándose en el conjunto de capacitación. Luego, le da a la empresa una estimación probabilística de cuán cerca los atributos de un candidato coinciden con los del empleado ideal.
Teóricamente, este método podría usarse para encontrar el persona adecuada para el papel correcto más rápido y eficiente que nunca. Pero, como se habrán dado cuenta, se ha convertido en una fuente de promesas y peligros. Si el conjunto de entrenamiento es diverso, si se utilizan datos demográficamente imparciales para medir a las personas en él, y si los algoritmos también están desesgados, esta técnica puede en realidad mitigar los prejuicios humanos y expandir la diversidad y la inclusión socioeconómica mejor de lo que los humanos jamás podrían. Sin embargo, si el conjunto de capacitación, los datos o ambos son sesgados, y los algoritmos no son suficientemente auditados, la IA solo agravará el problema del sesgo en la contratación y la homogeneidad en las organizaciones.
Con el fin de mejorar rápidamente la gestión del talento y aprovechar al máximo la potencia y las posibles ofertas de IA, entonces, tenemos que cambiar nuestro enfoque de desarrollar sistemas de recursos humanos más éticos a desarrollar una IA más ética. Por supuesto, eliminar el sesgo de la IA no es fácil. De hecho, es muy difícil. Pero nuestro argumento se basa en nuestra creencia de que es mucho más factible que quitarlo de los propios seres humanos.
Cuando se trata de identificar talento o potencial, la mayoría de las organizaciones todavía lo juegan de oído. Los reclutadores pasan sólo una pocos segundos mirando un currículum antes de decidir a quién «eliminar». Los gerentes de contratación hacen juicios rápidos y los llaman « intuición» o pasar por alto los datos duros y contratar basados en ajuste cultural — un problema agravado por la ausencia general de objetivos y rigurosos medidas de rendimiento. Además, la formación sobre sesgo inconsciente implementada por un número cada vez mayor de empresas se ha encontrado a menudo ineficaz, y a veces, incluso puede empeorar las cosas. A menudo, el entrenamiento se centra demasiado en el sesgo individual y demasiado poco en el sesgos estructurales estrechando la canalización de los grupos insuficientemente representados.
Aunque los críticos argumentan que la IA no es mucho mejor, a menudo olvidan que estos sistemas son reflejando nuestro propio comportamiento. Somos rápidos en culpar AI para predecir que los hombres blancos recibirán calificaciones de rendimiento más altas de sus gerentes (probablemente también hombres blancos). Pero esto está sucediendo porque no hemos podido corregir el sesgo en el clasificaciones de rendimiento que se utilizan a menudo en conjuntos de datos de capacitación. Nos sorprende que AI pueda tomar decisiones tendenciosas de contratación, pero vivir bien en un mundo donde los prejuicios humanos los dominan. Sólo echa un vistazo a Amazon. La protesta de las críticas sobre su algoritmo de reclutamiento sesgado ignoró la abrumadora evidencia de que la contratación actual impulsada por el hombre en la mayoría de las organizaciones es inexorablemente peor. Es similar a expresar más preocupación por un número muy pequeño de muertes de coches sin conductor que los 1,2 millones muertes por tráfico un año causado por humanos defectuosos y posiblemente también distraídos o intoxicados.
De manera realista, tenemos una mayor capacidad para garantizar tanto la precisión como la equidad en los sistemas de IA que para influir o iluminar a los reclutadores y gerentes de contratación. Humanos son muy buenos para aprender pero muy malos para desaprender. Los mecanismos cognitivos que nos hacen sesgados son a menudo las mismas herramientas que usamos para sobrevivir en nuestra vida cotidiana. El mundo es demasiado complejo para que procesemos lógica y deliberadamente todo el tiempo; si lo hiciéramos, estaríamos abrumados por la sobrecarga de información e incapaces de tomar decisiones simples, como comprar una taza de café (después de todo, ¿por qué deberíamos confiar en el barista si no lo conocemos?). Es por eso que es más fácil asegurar que nuestros datos y conjuntos de entrenamiento sean imparciales que cambiar los comportamientos de Sam o Sally, de quienes no podemos eliminar sesgos ni extraer una impresión de las variables que influyen en sus decisiones. Esencialmente, es más fácil descomprimir algoritmos de IA que entender y cambiar la mente humana.
Para ello, las organizaciones que utilizan IA para la gestión del talento, en cualquier etapa, deben comenzar por tomar los siguientes pasos.
1) Educar a los candidatos y obtener su consentimiento. Pida a los futuros empleados que opten o proporcionen sus datos personales a la empresa, sabiendo que serán analizados, almacenados y utilizados por los sistemas de IA para tomar decisiones relacionadas con los recursos humanos. Esté preparado para explicar el¿Qué, quién, cómo, y ¿Por qué. No es ético que los sistemas de IA confíen en modelos black-box. Si un candidato tiene un atributo que está asociado con el éxito en un rol, la organización necesita no sólo entender por qué es el caso, sino también ser capaz de explicar los vínculos causales. En resumen, los sistemas de IA deben diseñarse para predecir y explicar «causalidad», no solo para encontrar «correlación». También debe asegurarse de preservar el anonimato de los candidatos para proteger los datos personales y cumplir con GDPR, California leyes de privacidad, y reglamentos similares.
2) Invertir en sistemas que optimicen para la equidad y precisión. Históricamente, los psicólogos organizacionales han señalado una disminución en la precisión cuando las evaluaciones de los candidatos están optimizadas para ser justas. Por ejemplo, muchas investigaciones académicas indican que si bien las pruebas de capacidad cognitiva son un predictor consistente de rendimiento en el trabajo, en particular en trabajos de alta complejidad, su implementación tiene impacto adverso sobre los grupos insuficientemente representados, en particular las personas con un nivel socioeconómico más bajo. Esto significa que las empresas interesadas en impulsar la diversidad y crear una cultura inclusiva a menudo desenfatizan las pruebas cognitivas tradicionales cuando contratan nuevos trabajadores para que diversos candidatos no se vean desfavorecidos en el proceso. Esto se conoce como el intercambio de la justidad/precisión.
Sin embargo, esta compensación se basa en técnicas de hace medio siglo, antes de la aparición de modelos de IA que pueden tratar los datos de manera muy diferente a los modelos tradicionales. Cada vez hay más pruebas de que la IA podría superar este compromiso mediante la implementación de algoritmos de puntuación más dinámicos y personalizados que son sensibles tanto a la precisión como a equidad, optimizando para una mezcla de ambos. Por lo tanto, los desarrolladores de AI no tienen excusa para no hacerlo. Además, dado que estos nuevos sistemas existen ahora, deberíamos preguntarnos si el uso generalizado de las evaluaciones cognitivas tradicionales, que se sabe que tienen un impacto negativo en las minorías, debería continuar sin algún tipo de mitigación de prejuicios.
3) Desarrollar sistemas de código abierto y auditorías de terceros. Exija que las empresas y los desarrolladores rindan cuentas al permitir que otros auditen las herramientas que se utilizan para analizar sus aplicaciones. Una solución es open sourcing aspectos no propietarios pero críticos de la tecnología de IA que utiliza la organización. Para los componentes propietarios, las auditorías de terceros realizadas por expertos creíbles en el campo son una herramienta que las empresas pueden utilizar para mostrar al público cómo están mitigando el sesgo.
4) Siga las mismas leyes, así como las prácticas de recolección de datos y uso, utilizadas en la contratación tradicional. Cualquier dato que no deba recopilarse o incluirse en un proceso de contratación tradicional para razones jurídicas o éticas no debe ser utilizado por los sistemas de IA. Nunca se debe introducir información privada sobre condiciones físicas, mentales o emocionales, información genética y uso o abuso de sustancias.
Si las organizaciones abordan estos problemas, creemos que la IA ética podría mejorar enormemente las organizaciones no solo reduciendo el sesgo en la contratación, sino también mediante mejorar la meritocracia y haciendo que la asociación entre talento, esfuerzo y éxito de los empleados sea mucho mayor de lo que ha sido en el pasado. Además, será bueno para la economía mundial. Una vez que mitigamos el sesgo, nuestros grupos de candidatos crecerán más allá de las referencias de los empleados y los graduados de la Ivy League. Las personas de una gama más amplia de entornos socioeconómicos tendrán más acceso a mejores empleos, lo que puede ayudar a crear un equilibrio y comenzar a remediar las divisiones de clases.
Sin embargo, para que esto suceda, las empresas necesitan hacer las inversiones adecuadas, no solo en tecnologías avanzadas de IA, sino también (y especialmente) en conocimientos humanos, personas que entienden cómo aprovechar las ventajas que ofrecen estas nuevas tecnologías al tiempo que minimizan los posibles riesgos e inconvenientes. En cualquier área del rendimiento, una combinación de inteligencia artificial y humana es probable que produzca un mejor resultado que uno sin el otro. La IA ética debe ser vista como una de las herramientas que podemos usar para contrarrestar nuestros propios sesgos, no como una panacea final.
— Tomas Chamorro-Premuzic Frida Polli Ben Dattner Via HBR.org