Las implicaciones legales y éticas del uso de la IA en la contratación
![](https://blog.astraed.co/wp-content/uploads/2020/06/Apr19_25_936081476.jpg)
Las innovaciones digitales y los avances en AI han producido una gama de identificación y evaluación de nuevos talentos herramientas. Muchas de estas tecnologías prometen ayudar a las organizaciones a mejorar su capacidad de encontrar a la persona adecuada para el trabajo correcto, y a detectar a las personas equivocadas para los trabajos equivocados, más rápido y más barato que nunca.
Estas herramientas ponen en manos de las organizaciones un poder sin precedentes para tomar decisiones sobre capital humano basadas en datos. También tienen el potencial de democratizar la retroalimentación, dando a millones de candidatos de trabajo información basada en datos sobre sus fortalezas, necesidades de desarrollo y potencial carrera y capacidad organizativa. En particular, hemos visto el rápido crecimiento (y la correspondiente inversión de capital de riesgo) en evaluaciones basadas en juegos, bots para raspar publicaciones en redes sociales, análisis lingüístico de muestras de escritura de candidatos y entrevistas basadas en video que utilizan algoritmos para analizar el contenido del habla, el tono de voz, los estados emocionales, comportamientos no verbales y pistas temperamentales.
Centro de información
Interacción con IA
Patrocinado por QlikCómo los humanos y las máquinas trabajarán juntos.
Si bien estas nuevas herramientas están interrumpiendo el espacio de contratación y evaluación, dejan muchas preguntas aún sin respuesta sobre su exactitud y las implicaciones éticas, legales y de privacidad que introducen. Esto es especialmente cierto cuando se compara con evaluaciones psicométricas más antiguas como el NEO-PI-R, The Wonderlic Test, la prueba de matrices progresivas de Ravens o el Inventario de Personalidad Hogan que han sido científicamente derivado y cuidadosamente validados en relación con los trabajos relevantes, identificando asociaciones confiables entre los puntajes de los solicitantes y su posterior desempeño laboral (publicación de la evidencia en revistas académicas independientes, confiables). Recientemente, incluso ha habido interés y preocupación en el Senado de los Estados Unidos acerca de si las nuevas tecnologías (específicamente, las tecnologías de análisis facial) podrían tener implicaciones negativas para igualdad de oportunidades entre los candidatos a puestos de trabajo.
En este artículo, nos centramos en las posibles repercusiones de las nuevas tecnologías en la privacidad de los candidatos, así como en las implicaciones para la protección de los candidatos bajo la Ley de Estadounidenses con Discapacidad y otras leyes laborales federales y estatales. Los empleadores reconocen que no pueden o no deben preguntar a los candidatos sobre su estado familiar u orientación política, o si están embarazadas, heterosexuales, gays, tristes, solitarios, deprimidos, enfermos físicos o mentales, bebiendo demasiado, abusando de las drogas o durmiendo muy poco. Sin embargo, nuevas tecnologías puede ser capaz de discernir muchos de estos factores indirectamente y sin el consentimiento adecuado (o incluso cualquier).
Antes de profundizar en las ambigüedades actuales del nuevo y valiente mundo de la evaluación y evaluación de candidatos a puestos de trabajo, es útil echar un vistazo al pasado. Evaluaciones psicométricas han estado en uso durante más de 100 años y se han utilizado más ampliamente como resultado de la Ejército Alfa, que coloca a los reclutas en categorías y determina su probabilidad de tener éxito en diversas funciones. Tradicionalmente, la psicometría se clasificaba en tres grandes categorías: capacidad cognitiva o inteligencia, personalidad o temperamento, y salud mental o diagnóstico clínico.
Desde la adopción de la Americans with Disabilities Act (ADA) en 1990, Por lo general, los empleadores tienen prohibido preguntar o utilizar la discapacidad física, la salud mental o el diagnóstico clínico como factor en las evaluaciones de candidatos previos al empleo, y las empresas que lo han hecho han sido demandados y censurados. En esencia, se ha determinado que las discapacidades —ya sean físicas o mentales— son información «privada» de la que los empleadores no pueden preguntar en la etapa previa al empleo, del mismo modo que los empleadores no deben hacer preguntas intrusivas a los solicitantes sobre su vida privada, y no pueden tomar información demográfica privada en cuenta en las decisiones de contratación.
Se ha descubierto que las pruebas de capacidad cognitiva y de inteligencia son un fiable y válido predictor del éxito laboral en una amplia variedad de ocupaciones. Sin embargo, estos tipos de evaluaciones pueden ser discriminatorias si afectan negativamente a ciertas grupos protegidos, como los definidos por sexo, raza, edad u origen nacional. Si un empleador está utilizando una evaluación que se ha comprobado que tiene un impacto adverso, que se define por las puntuaciones relativas de los diferentes grupos protegidos, el empleador tiene que demostrar que la metodología de evaluación está relacionada con el trabajo y predictiva del éxito en los empleos específicos en cuestión.
Es menos probable que las evaluaciones de la personalidad expongan a los empleadores a una posible responsabilidad por discriminación, ya que hay poca o ninguna correlación entre las características de la personalidad y las variables o discapacidades demográficas protegidas. También hay que señalar que la relación entre la personalidad y el desempeño laboral depende de la contexto (por ejemplo, tipo de función o trabajo).
Lamentablemente, hay mucha menos información sobre la nueva generación de herramientas de talento que se utilizan cada vez más en la evaluación previa a la contratación. Muchas de estas herramientas han surgido como innovaciones tecnológicas, más que a partir de métodos o programas de investigación de origen científico. Como resultado, no siempre está claro lo que evalúan, si sus hipótesis subyacentes son válidas o por qué cabe esperar que prevean el desempeño de los candidatos. Por ejemplo, las propiedades físicas del habla y la voz humana — que se han asociado durante mucho tiempo con elementos de personalidad — se han vinculado a diferencias individuales en el desempeño laboral. Si una herramienta muestra una preferencia por patrones de habla, como la cadencia vocal consistente o el tono de voz «amigable» que no tienen un impacto adverso en los candidatos de un grupo legalmente protegido, entonces no hay problema legal; pero estas herramientas pueden no haber sido validadas científicamente y, por lo tanto, son no se controla por posibles efectos negativos discriminatorios, lo que significa que el empleador puede incurrir en responsabilidad por cualquier dependencia ciega. Además, todavía no hay hipótesis convincentes o conclusiones defendibles sobre si sería ético para detectar a las personas basándose en sus voces, que son fisiológicamente determinadas, atributos personales en gran medida inmutables.
Asimismo, se ha encontrado que la actividad de las redes sociales (por ejemplo, el uso de Facebook o Twitter) refleja las inteligencia y personalidad, incluyendo su rasgos del lado oscuro. Pero, ¿es ético extraer estos datos para fines de contratación cuando los usuarios generalmente han utilizado tales aplicaciones para diferentes fines y pueden no haber dado su consentimiento para el análisis de datos para extraer conclusiones privadas de sus publicaciones públicas?
Cuando se utilizan en el contexto de la contratación, las nuevas tecnologías plantean una serie de nuevas cuestiones éticas y jurídicas en torno a la privacidad, que creemos que deberían ser discutidas y debatidas públicamente, a saber:
1) ¿Qué tentaciones enfrentarán las empresas en términos de privacidad de los candidatos en relación con los atributos personales?
A medida que avanza la tecnología, el big data y la IA seguirán siendo capaces de determinar variables «proxy» para atributos personales y privados con mayor precisión. Hoy, por ejemplo, Facebook «me gusta» se puede utilizar para inferir orientación sexual y raza con una precisión considerable. La afiliación política y las creencias religiosas son fácilmente identificables. ¿Podrían las empresas sentirse tentadas a usar herramientas como estas para seleccionar candidatos, creyendo que debido a que las decisiones no se toman directamente en base a características protegidas, no son legalmente procesables? Mientras que un empleador no puede violar ninguna ley en el simple discernimiento de la información personal de un solicitante, la empresa puede volverse vulnerable a la exposición legal si toma decisiones laborales adversas basándose en cualquier categoría protegida, como el lugar de nacimiento, la raza o el idioma nativo, o basado en información que no tiene derecho a considerar, como una posible enfermedad física o dolencia mental. No está claro cómo manejarán los tribunales las situaciones en las que los empleadores han recurrido a herramientas que utilizan estas variables sustitutivas; pero el hecho sigue siendo que es ilegal tomar una medida adversa basada en ciertas características protegidas o privadas, independientemente de cómo se hayan aprendido o deducido.
Esto también podría aplicarse al software de reconocimiento facial, como los recientes investigación predice que la IA de lectura facial puede pronto ser capaz de discernir la orientación sexual y política de los candidatos, así como los «estados internos» como el estado de ánimo o la emoción con un alto grado de precisión. ¿Cómo podría la aplicación del Ley de Estadounidenses con Discapacidad ¿Cambio? Además, el Ley de Protección del Polígrafo de Empleados generalmente prohíbe a los empleadores usar pruebas de detector de mentiras como herramienta de detección previa al empleo y la Ley de No Discriminación sobre Información Genética prohíbe a los empleadores utilizar información genética en las decisiones de empleo. Pero, ¿qué pasa si el mismo tipo de información sobre la verdad, las mentiras o los atributos genéticos puede ser determinado por las herramientas tecnológicas antes mencionadas?
2) ¿Qué tentaciones enfrentarán las empresas en términos de privacidad de los candidatos en relación con el estilo de vida y las actividades?
Los empleadores ahora pueden acceder a información como el «check in» en línea de un candidato a su iglesia todos los domingos por la mañana, la revisión de otro candidato del centro de atención a la demencia en el que ha comprobado a su padre mayor, y la solicitud de divorcio de un tercero en el tribunal civil. Todas estas cosas, y muchas más, son fácilmente reconocibles en la era digital. Los grandes datos nos siguen en todas partes en las que vamos en línea y recopilan y ensamblan información que se puede cortar y cortar en cubitos con herramientas que ni siquiera podemos imaginar todavía, herramientas que posiblemente podrían informar a los futuros empleadores sobre nuestra aptitud (o falta de ella) para ciertos roles. Y el big data solo va a aumentar; según los expertos, 90% de los datos en el mundo se generó sólo en los últimos dos años. Con la expansión de los datos se produce la posible expansión del uso indebido y la discriminación resultante, ya sea deliberada o no intencionada.
A diferencia de la UE, que ha armonizado su enfoque de la privacidad bajo el Reglamento General de Protección de Datos (RGPD), los Estados Unidos se basan en un enfoque de mosaico de la privacidad impulsado en gran medida por la legislación estatal. En cuanto a las redes sociales, específicamente, los estados comenzaron a introducir legislación en 2012 para evitar que los empleadores solicitaran contraseñas para cuentas personales de Internet como condición de empleo. Más de veinte estados han promulgado este tipo de leyes que se aplican a los empleadores. Sin embargo, en términos de privacidad general en el uso de las nuevas tecnologías en el lugar de trabajo, ha habido orientaciones o medidas menos específicas. En particular, legislación aprobada en California que potencialmente restringirá el uso de datos de candidatos o empleados por parte de los empleadores. En general, los tribunales estatales y federales aún no han adoptado un marco unificado para analizar la privacidad de los empleados en relación con las nuevas tecnologías. Lo importante es que, al menos por ahora, la privacidad de los empleados en la era de los big data sigue sin resolverse. Esto coloca a los empleadores en una posición conflictiva que exige cautela: se dispone de tecnología de vanguardia que puede ser extremadamente útil. Pero te está dando información que antes se ha considerado privada. ¿Es legal usar en un contexto de contratación? ¿Y es ético considerar si el candidato no dio su consentimiento?
3) ¿Qué tentaciones enfrentarán las empresas en términos de privacidad de los candidatos en relación con las discapacidades?
La Ley de Estadounidenses con Discapacidades pone las discapacidades mentales directamente en su ámbito de competencia, junto con las discapacidades físicas, y define a un individuo como discapacitado si el impedimento limita sustancialmente una actividad vital importante, si la persona tiene un registro de tal impedimento, o si se percibe que la persona tiene tal deterioro. Hace aproximadamente una década, la Comisión de Igualdad de Oportunidades en el Empleo de los Estados Unidos (EEOC) publicó una guía para decir que la lista en expansión de trastornos de la personalidad descrita en la literatura psiquiátrica podría calificarse como discapacidad mental, y la Ley de Enmiendas de la Ley de ADA facilitó a un individuo establecer que él o ella tiene una discapacidad en el sentido de la ADA. Como resultado, la categoría de personas protegidas por el ADA ahora puede incluir personas que tienen problemas significativos de comunicación en situaciones sociales, personas que tienen problemas concentrados o personas que tienen dificultades para interactuar con otros.
Además de plantear nuevas preguntas sobre las discapacidades, la tecnología también presenta nuevos dilemas con respecto a las diferencias, ya sean demográficas o no. Ya ha habido situaciones de la vida real de alto perfil en las que estos sistemas han revelado prejuicios aprendidos, especialmente en relación con la raza y el género. Amazon, por ejemplo, desarrolló un programa automatizado de búsqueda de talentos para revisar los currículos, que fue abandonado una vez que la empresa se dio cuenta de que el programa no calificaba a los candidatos de una manera neutral desde el punto de vista del género. Para reducir tales sesgos, los desarrolladores están equilibrando los datos utilizados para entrenar modelos de IA, para representar adecuadamente a todos los grupos. Cuanta más información tenga y pueda explicar/aprender de la tecnología, mejor puede controlar el sesgo potencial.
En conclusión, las nuevas tecnologías ya pueden cruzar las líneas entre atributos públicos y privados, «rasgos» y «estados» de nuevas maneras, y hay muchas razones para creer que en el futuro serán cada vez más capaces de hacerlo. Usando IA, big data, redes sociales y aprendizaje automático, los empleadores tendrán un acceso cada vez mayor a la vida privada de los candidatos, atributos privados y desafíos privados y estados de ánimo. No hay respuestas fáciles a muchas de las nuevas preguntas sobre la privacidad que hemos planteado aquí, pero creemos que todas ellas merecen ser debatidas y debatidas públicamente.
— Ben Dattner Tomas Chamorro-Premuzic Richard Buchband Lucinda Schettler Via HBR.org