¿Qué implica realmente construir una IA justa?

Resumen ejecutivo

Las organizaciones están empleando algoritmos para asignar recursos valiosos, diseñar calendarios de trabajo, analizar el rendimiento de los empleados e incluso decidir si los empleados pueden permanecer en el trabajo. Pero si bien la IA resuelve algunos problemas, crea otros nuevos, y uno de los más difíciles es cómo asegurarse de que las decisiones moldeadas o tomadas por la IA sean justas y se perciban como justas. Las empresas deben dejar de pensar en la equidad, un concepto complicado, como algo que pueden abordar con los procesos automatizados adecuados. El autor hace tres recomendaciones: 1) Piense en la equidad como un acto colaborativo, 2) considere la equidad de la IA como una negociación entre utilidad y humanidad, y 3) recuerde que la equidad de la IA implica percepciones de responsabilidad.

La inteligencia artificial (IA) se está convirtiendo rápidamente en parte integral de la forma en que se ejecutan las organizaciones. Esto no debería ser una sorpresa; al analizar las llamadas de venta y las tendencias del mercado, por ejemplo, los juicios de algoritmos computacionales pueden considerarse superiores a los de los humanos. Como resultado, las técnicas de IA se utilizan cada vez más para tomar decisiones. Las organizaciones están empleando algoritmos para asignar recursos valiosos, diseñar horarios de trabajo, analizar el rendimiento de los empleados, e incluso decidir si los empleados pueden permanecer en el trabajo.

Esto crea un nuevo conjunto de problemas incluso cuando resuelve los viejos. A medida que aumenta el papel de la toma de decisiones algorítmicas en el cálculo de la distribución de recursos limitados, y a medida que los humanos se vuelven más dependientes y vulnerables a las decisiones de la IA, aumenta la ansiedad por la equidad. ¿Qué tan imparcial puede ser un proceso automatizado de toma de decisiones con los seres humanos como receptores realmente ser?

Para abordar este problema, los científicos e ingenieros informáticos se están centrando principalmente en cómo gobernar el uso de los datos proporcionados para ayudar al algoritmo a aprender (es decir, la minería de datos) y cómo utilizar principios y técnicas orientadores que pueden promover IA interpretable: que nos permiten entender cómo surgieron los resultados. Ambos enfoques se basan, en su mayor parte, en el desarrollo de métodos computacionales que tengan en cuenta ciertas características que se consideran relacionadas con la equidad.

En el corazón del problema está el hecho de que los algoritmos calculan modelos óptimos a partir de los datos que se les dan, lo que significa que pueden terminar replicando los problemas que están destinados a corregir. Un esfuerzo de 2014 para eliminar el sesgo humano en la contratación en Amazon, por ejemplo, calificó a los candidatos de manera sesgada de género; los datos históricos de desempeño laboral que se dieron mostraron que la industria tecnológica estaba dominada por los hombres, por lo que evaluó la contratación de hombres como una buena apuesta. El Perfilado Correccional de Gestión de Delincuentes para Sanciones Alternativas, un programa administrado por la IA, ofreció predicciones sesgadas de reincidencia que preveían erróneamente que los acusados negros (erróneamente juzgados con mayor riesgo de reincidencia) reincidirían a un ritmo mucho mayor que los acusados blancos (incorrectamente marcado como de bajo riesgo).

Las organizaciones y los gobiernos han tratado de establecer directrices para ayudar a los desarrolladores de IA a perfeccionar los aspectos técnicos para que las decisiones algorítmicas sean más interpretables, permitiendo a los humanos comprender claramente cómo se alcanzaron las decisiones, y por lo tanto más justas. Por ejemplo, Microsoft ha lanzado programas que identifican principios de alto nivel como la equidad, la transparencia, la rendición de cuentas y la ética para guiar a los científicos e ingenieros informáticos en sus esfuerzos de codificación. Se están llevando a cabo esfuerzos similares a nivel gubernamental, como lo demuestra el Directrices éticas de la Unión Europea para una IA digna de confianza y Marco de gobernanza modelo de inteligencia artificial de Singapur.

Pero ni los esfuerzos de los científicos informáticos para tener en cuenta las características tecnológicas ni los esfuerzos de las empresas y los gobiernos por desarrollar directrices basadas en principios resuelven bastante la cuestión de la confianza. Para ello, los diseñadores deben tener en cuenta las necesidades de información y expectativas de las personas que enfrentan los resultados de los resultados de los modelos. Esto es importante desde el punto de vista ético y práctico: Una abundancia de investigación en gestión muestra que las decisiones más justas se perciben, más los empleados las aceptan, cooperan con los demás, están satisfechos con sus trabajos y rinden mejor. La equidad es importante para el funcionamiento de la organización, y no hay razón para pensar que eso cambiará cuando la IA se convierta en el responsable de la toma de decisiones.

Entonces, ¿cómo pueden las empresas que quieren implementar IA persuadir a los usuarios de que no están comprometiendo la equidad? En pocas palabras, tienen que dejar de pensar en la equidad, un concepto complicado, como algo que pueden abordar con los procesos automatizados correctos y comenzar a pensar en un enfoque interdisciplinario en el que las ciencias sociales y la informática trabajan juntas. La equidad es un constructo social que los humanos utilizan para coordinar sus interacciones y contribuciones posteriores al bien colectivo, y es subjetivo. Un tomador de decisiones de IA debe ser evaluado sobre lo bien que ayuda a las personas a conectarse y cooperar; las personas considerarán no solo sus aspectos técnicos, sino también las fuerzas sociales que operan a su alrededor. Un enfoque interdisciplinario permite identificar tres tipos de soluciones que generalmente no se discuten en el contexto de la IA como responsable de tomar decisiones justas.

Solución 1: Trate la equidad de la IA como un acto cooperativo.

Los algoritmos tienen como objetivo reducir las tasas de error tanto como sea posible con el fin de revelar la solución óptima. Pero si bien ese proceso puede ser moldeado por criterios formales de equidad, los algoritmos dejan el método perceptual naturaleza de la equidad fuera de la ecuación y no abarcan aspectos tales como si las personas sienten que han sido tratadas con dignidad y respeto y han sido atendidas, importantes preocupaciones de justicia. De hecho, los algoritmos están diseñados en gran medida para crear modelos óptimos de predicción que tengan en cuenta características técnicas para mejorar los criterios formales de equidad, como la interpretabilidad y la transparencia, a pesar de que esas características no necesariamente satisfacen las expectativas y necesidades del usuario final humano. Como resultado, y como muestra el ejemplo de Amazon, los algoritmos pueden predecir resultados que la sociedad percibe como injustos.

Hay una manera sencilla de abordar este problema: el modelo producido por la IA debe ser evaluado por un defensor del diablo humano. Aunque las personas son mucho menos racionales que las máquinas y, en cierta medida, están ciegas a sus propios comportamientos inapropiados, las investigaciones muestran que son menos propensas a ser sesgadas cuando evaluar los comportamientos y decisiones de los demás. En vista de esta visión, la estrategia para lograr la equidad en la IA debe implicar un acto de cooperación entre la IA y los seres humanos. Ambas partes pueden llevar sus mejores habilidades a la mesa para crear un modelo de predicción óptimo ajustado a las normas sociales.

Recomendación: Las organizaciones necesitan invertir significativamente en el desarrollo ético de sus gerentes. Ser un defensor del diablo para los tomadores de decisiones algorítmicas requiere que los gerentes desarrollen su sentido común e intuitivo para lo que está bien y lo que está mal.

Solución 2: Convise la equidad de IA como una negociación entre utilidad y humanidad.

juicio algorítmico es demostró ser más preciso y predictivo que el juicio humano en una serie de tareas específicas, incluida la asignación de puestos de trabajo y recompensas sobre la base de evaluaciones del desempeño. Tiene sentido que en la búsqueda de un negocio que funcione mejor, los algoritmos son cada vez más preferido sobre los para esas tareas. Desde un punto de vista estadístico, esa preferencia puede parecer válida. Sin embargo, administrar el flujo de trabajo y la asignación de recursos de maneras (casi) perfectamente racionales y consistentes no es necesariamente lo mismo que construir una empresa o sociedad humana.

No importa cómo intentes optimizar sus días de trabajo, los humanos no trabajan de manera estable y predecible. Tenemos días buenos y malos, bajadas de la tarde y ráfagas de productividad, todo lo cual representa un desafío para la organización automatizada del futuro. De hecho, si queremos utilizar la IA de maneras que promuevan un entorno de trabajo humano, tenemos que aceptar la propuesta de que no debemos optimizar la búsqueda de utilidad en detrimento de valores como la tolerancia al fracaso, que permite a las personas aprender y mejorar, habilidades de liderazgo consideradas necesarias para hacer nuestra las organizaciones y la sociedad humana. El modelo óptimo de predicción de equidad debe diseñarse con una mentalidad de negociación que se esfuerza por un compromiso aceptable entre la utilidad y los valores humanos.

Recomendación: Los líderes deben tener claro qué valores quiere perseguir la empresa y qué normas morales les gustaría ver en el trabajo. Por lo tanto, deben ser claros sobre cómo quieren hacer negocios y por qué. Responder a esas preguntas hará evidente el tipo de organización que les gustaría ver en acción.

Solución 3: Recuerde que la justicia de IA implica percepciones de responsabilidad.

La equidad es una preocupación importante en la mayoría (si no en todas) de nuestras interacciones profesionales y, por lo tanto, constituye una responsabilidad importante para los responsables de la toma de decisiones. Hasta ahora, las organizaciones y los gobiernos, debido a su adhesión a las estructuras matriciales, han abordado la cuestión de la toma de decisiones justas de IA mediante el desarrollo de listas de verificación de cualidades para guiar el desarrollo de algoritmos. El objetivo es construir IA cuyas salidas coinciden con una cierta definición de lo que es justo.

Sin embargo, eso es solo la mitad de la ecuación: la equidad de IA como tomador de decisiones realmente depende de las decisiones tomadas por la organización que la adopta, que es responsable de los resultados que generan sus algoritmos. La percepción de equidad de la IA se juzgará a través de la lente de la organización que la emplea, no sólo por las cualidades técnicas de los algoritmos.

Recomendación:  Los científicos de datos de una organización necesitan conocer y estar de acuerdo con los valores y las normas morales que el liderazgo ha establecido. En la mayoría de las organizaciones, existe una brecha entre lo que los científicos de datos están construyendo y los valores y resultados empresariales que los líderes organizacionales quieren lograr. Los dos grupos necesitan trabajar juntos para entender qué valores no se pueden sacrificar en el uso de algoritmos. Por ejemplo, si la inclusión de los grupos minoritarios, que generalmente están mal representados en los datos disponibles, es importante para la empresa, entonces es necesario desarrollar algoritmos que incluyan ese valor como un filtro importante y garanticen que se aprendan los valores atípicos, no sólo los elementos comunes.

***

Las organizaciones deben reconocer que sus partes interesadas las percibirán, no los algoritmos que despliegan, como responsables de cualquier resultado injusto que pueda surgir. Lo que hace que la IA sea justa también será una función de cómo las partes interesadas justas perciben a la empresa en general. Investigación ha mostrado que las percepciones justas, además de la equidad distributiva que los algoritmos han dominado hasta cierto punto, pueden implicar cuán equitativamente la organización trata a sus empleados y clientes, si se comunica de manera transparente y si se considera respetuosa con la comunidad en general. Se aconseja a las organizaciones que adoptan la IA para participar en la toma de decisiones que pongan el tiempo y la energía necesarios en la construcción de una cultura de trabajo adecuada: una con una imagen organizativa confiable y justa.

- Via HBR.org