Todos los miembros de su organización deben entender la ética de la IA
Resumen.
Cuando la mayoría de las organizaciones piensan en la ética de la IA, a menudo pasan por alto algunas de las fuentes de mayor riesgo: oficiales de aprovisionamiento, líderes superiores que carecen de la experiencia necesaria para investigar el riesgo ético en proyectos de IA y científicos de datos e ingenieros que no entienden los riesgos éticos de la IA. Para solucionarlo, es necesario tener en cuenta y tener en cuenta su programa de ética de IA en toda la organización. Para lograrlo, considere estas seis estrategias: 1) eliminar el miedo a no entenderlo de inmediato, 2) adaptar su mensaje a su audiencia, 3) vincular sus esfuerzos al propósito de su empresa, 4) definir qué significa la ética de forma operativa, 5) apoyarse en personas confiables e influyentes, y 6) nunca deje de educar.
Muchas organizaciones han visto el imperativo empresarial de un programa de riesgo ético de IA. Innumerables informes de noticias, desde el reconocimiento facial defectuoso y discriminatorio hasta las violaciones de la privacidad y los algoritmos de caja negra con consecuencias que alteran la vida, lo han incluido en las agendas de las juntas directivas, los directores ejecutivos y los directores de datos y análisis. Sin embargo, lo que la mayoría de los líderes no entienden es que hacer frente a estos riesgos requiere sensibilizar sobre ellos en toda su organización. Aquellos que lo entienden a menudo no saben cómo proceder.
Para las empresas que utilizan IA, esta debe ser una prioridad máxima. Más del 50% de los ejecutivos declaran una preocupación «importante» o «extrema» por los riesgos éticos y reputacionales de la IA en su organización, dado su nivel actual de preparación para identificar y mitigar esos riesgos. Eso significa que creación de un programa de riesgo ético de IA en la que todo el mundo está adquirido es necesario para implementar la IA en absoluto. Si se hace bien, la sensibilización puede mitigar los riesgos a nivel táctico y prestarse a la implementación exitosa de un programa de riesgo ético de IA más general.
La creación de esta conciencia suele descomponerse en tres problemas importantes.
En primer lugar, los oficiales de aprovisionamiento son una de las mayores y más ignoradas fuentes de riesgos éticos de IA. Los proveedores de IA venden en la mayoría de los departamentos de su organización, pero especialmente en recursos humanos, marketing y finanzas. Si sus responsables de aprovisionamiento de recursos humanos no saben cómo hacer las preguntas correctas para examinar los productos de IA, pueden, por ejemplo, importar el riesgo de discriminar a las subpoblaciones protegidas durante el proceso de contratación.
En segundo lugar, los líderes superiores a menudo no tienen los conocimientos necesarios para detectar defectos éticos en la IA de su organización, lo que pone en riesgo a la empresa, tanto de reputación como legalmente. Por ejemplo, si un equipo de producto está listo para implementar una IA pero primero necesita la aprobación de un ejecutivo que sabe poco sobre los riesgos éticos del producto, la reputación de la marca (sin mencionar el ejecutivo) puede correr un alto riesgo.
En tercer lugar, un programa de riesgo ético de IA requiere científicos e ingenieros de datos bien informados. Si no entienden los riesgos éticos de la IA, es posible que no entiendan sus nuevas responsabilidades tal como se articulan en el programa o pueden entenderlas pero no comprenden su importancia, lo que a su vez lleva a no tomarlos en serio. Por otro lado, si tiene una organización que comprende los riesgos éticos, de reputación y legales de la IA, entenderá la importancia de implementar un programa que aborde sistemáticamente esos problemas entre organizaciones.
Crear esta conciencia interorganizacional requiere trabajo. Requiere un mensaje coherente que también se adapte a las preocupaciones específicas de cada grupo. Después de todo, los intereses y responsabilidades de los directivos son diferentes de los de los propietarios de productos y diseñadores, que son diferentes de los de los científicos de datos e ingenieros; hablar en el mismo idioma a todos ellos resulta en hablar con ninguno de ellos. El mensaje no puede ser superficial o hará que la gente piense que la ética de la IA es un problema de RR.PP. o una preocupación de nicho. Además, necesita un claro líder de la suite responsable de idear y supervisar la ejecución de una estrategia que resulte en una concienciación en toda la organización; este problema no se tomará en serio si el mensaje no sale de la cima. Aquí es donde deberían empezar las organizaciones.
Cómo crear conciencia y obtener un buy-in
Es fundamental garantizar que todos los empleados conozcan los riesgos y se sientan vested en el éxito de la IA dentro de la organización. No solo necesitan ser conscientes de que estos problemas existen, sino que también necesitan saber cómo afectan esos riesgos a su trabajo en particular y cómo encaja en la descripción de su trabajo. Una cosa es que alguien de RRHH sepa que necesita contratar a personas adecuadas para el trabajo y qué aspecto podría parecer, al mismo tiempo, estar consciente de los riesgos éticos de la IA. Es otro que esa persona considere identificar y mitigar esos riesgos como parte de su trabajo, por ejemplo, sabiendo que el cumplimiento responsable de sus responsabilidades incluye pedir a los proveedores de IA que proporcionan software de contratación que proporcionen documentación sobre cómo identificaron y mitigaron los sesgos en su AI.
Estas son seis medidas que puede tomar para crear conciencia organizacional y comprar de la manera correcta.
1. Elimine el miedo a la ética de la IA y la IA. Una barrera a la que se enfrentan las organizaciones es que las personas ajenas a la IT pueden sentirse intimidadas por el tema. La «inteligencia artificial», el «aprendizaje automático» y los «algoritmos discriminatorios» pueden parecer conceptos desalentadores, lo que lleva a la gente a apartarse del tema por completo. Es crucial para crear conciencia organizacional que las personas se familiaricen y se sientan cómodas con los conceptos, si no con los fundamentos técnicos.
Tener alfabetización básica en IA, en cierto sentido, no es muy difícil. Después de todo, el aprendizaje automático es, en esencia, el aprendizaje por ejemplo, con el que todo el mundo está familiarizado. Del mismo modo, ser malo en algo porque no tenías suficientes ejemplos también es familiar para todos. Si estás comunicando a la gente cómo se podría crear un algoritmo discriminatorio, puedes explicar que algunos son el resultado de un software que no tenía suficientes ejemplos para aprender y, por lo tanto, el software comete errores (por ejemplo, no tener suficientes ejemplos de caras negras de mujer para tu software de reconocimiento facial). lo que hace que el software sea realmente malo para escoger caras negras de mujer). De forma más general, muchos de los riesgos éticos de la IA y sus diversas fuentes se pueden articular a un público no técnico y da como resultado que los empleados tengan la confianza que necesitan para manejar los problemas.
Exigir a los empleados de RRHH y marketing que conozcan de forma básica cómo funciona la IA y cómo surgen los riesgos éticos de la IA puede parecer un problema difícil. Sin embargo, la mayoría de las organizaciones han creado una gran conciencia sobre los riesgos de ciberseguridad, lo que también implica la alfabetización en ciberseguridad, y esto probablemente pareció una imposibilidad virtual antes de que las empresas se comprometieran a hacerlo realidad. Pero, si tu gente no conoce lo básico, no sabrá hacer las preguntas correctas (por ejemplo, de los proveedores de IA) cuando es crucial que lo hagan.
2. Adapta tus comunicaciones a tu audiencia. Los líderes sénior que se consideran administradores de la reputación de su marca están interesados en evitar riesgos que amenazan esa reputación. Para ellos, hablar en el lenguaje «ético y reputacional» riesgo» es importante para ellos ver la relevancia de la ética de la IA para sus preocupaciones y responsabilidades. Los diseñadores de productos, por otro lado, están menos preocupados por evitar riesgos que por fabricar productos «geniales» y útiles. Explicar cómo la ética de la IA por diseño mejora su producto, especialmente para el creciente número de consumidores y ciudadanos basados en valores en general, puede ser una forma muy eficaz de llegar a esa audiencia. Por último, los científicos e ingenieros de datos quieren modelos sólidos que sean eficaces. Hablar su lenguaje significa explicar cómo los problemas de algoritmos sesgados y cajas negras reducen la potencia de la herramienta y/o su adopción. Nadie quiere crear un modelo inexacto o no utilizado.
También es importante dar ejemplos e historias de IA con los que cada público puede relacionarse. Esto no solo tiene que implicar desastres de RR.PP.. También puede incluir, por ejemplo, la incapacidad de Amazon para mitigar lo suficiente los sesgos de su software de contratación con tecnología de inteligencia artificial que admirablemente llevó a Amazon a sacar el enchufe del proyecto en lugar de desplegar algo que podría ser perjudicial para los solicitantes de empleo y para la marca por igual. Además, en la medida de lo posible, debe utilizar ejemplos específicos de su sector. Hay casos en los que la IA se ha dado cuenta de ciertos riesgos éticos en la atención sanitaria, pero si habla con miembros de una tecnología financiera, los empleados se conectarán más con una historia de una empresa de pares.
3. Aate tus intentos de crear conciencia de la organización a la misión o el propósito de tu empresa. Si ya está integrado en su cultura organizativa cuál es su misión/propósito, integre su debate sobre la ética de la IA con eso. Explique cómo la ética de la IA y la gestión de riesgos éticos son una extensión adicional de esa misión, un conjunto de barandillas en torno a lo que (no) estás dispuesto a hacer en pos de esa misión.
Por ejemplo, su misión podría ser proporcionar el mejor asesoramiento financiero posible. Pero no puedes proporcionar ese consejo a menos que la gente confíe en ti y la gente no pueda confiar en ti si eres negligente en tu despliegue de IA. Cuando la IA sale mal, sale mal a escala, por lo que comunicar a su organización que parte de proporcionar el mejor asesoramiento financiero posible implica proteger a sus clientes, y que parte de protegerlos requiere el despliegue ético, responsable o confiable de la IA, la ética de la IA ya no se considera algo atornillado a sus operaciones. En cambio, comunicas que es una extensión adicional de tu misión y de tus valores fundamentales.
4. Defina lo que significa la ética de la IA en su organización de forma operativa. Una cosa es decir que estás «a favor de la privacidad» o que «respetas la privacidad». Otra cosa es hacer algo al respecto. Para asegurarse de que sus compromisos de valor ético de IA no se consideren simples RR.PP., vincular esos compromisos a barandas éticas, por ejemplo, «nunca venderemos sus datos a terceros» o «siempre anonimizaremos los datos compartidos con terceros».
Si tiene una declaración ética de IA bien elaborada, incluirá esas barandillas, que desempeñan un doble papel. En primer lugar, comunican a su equipo lo que está haciendo (o planea hacer) en realidad acerca de los riesgos éticos de la IA. Y segundo, comunica inmediatamente que esto no es RR.PP. o algo borroso. Cuando los valores se articulan y comunican de forma que los vincule a las acciones, esas comunicaciones son creíbles y memorables.
Una forma de facilitar a su audiencia para que comprenda cómo la ética de la IA no es difusa y es algo que se puede implementar es explicar las preguntas éticas muy reales y difíciles a las que se enfrentan en la atención sanitaria y las formas en que han abordado esos problemas. En relación con ello, puede discutir cómo el sector sanitario ha incorporado la mitigación ética de riesgos en la infraestructura y los procesos para que puedan ver que se puede hacer.
5. Invita a miembros de confianza e influyentes a través de diversas funciones para que se unan a ti en tus esfuerzos. Algunas organizaciones, como Microsoft, han creado un sistema de «AI Ethics Champions». Se trata de personas de toda la organización que se encargan de concienciar sobre los riesgos éticos de la IA con sus equipos. Una característica importante de un programa de campeón de ética de IA es que empodera a los líderes que ya tienen la confianza y el apoyo de su equipo. Además, conocen mejor a sus respectivos equipos que, por ejemplo, el director de aprendizaje o el director de datos, o quien lidere la estrategia de sensibilización de la organización.
6. Educar continuamente. Crear conciencia organizativa no es algo que hagas en un miércoles por la tarde o en un retiro de fin de semana. Requiere puntos de contacto continuos y diversos, desde oradores internos y externos, talleres, boletines informativos,. De hecho, la IA y las tecnologías emergentes en general están cambiando y evolucionando rápidamente, y con esos cambios surgen nuevas fuentes de riesgo ético. Para garantizar que su organización no se quede demasiado atrás, educar continuamente a su gente será un baluarte crucial contra la creciente oleada de avances tecnológicos.
Los líderes empresariales saben que averiguar cómo desarrollar, adquirir e implementar IA de forma segura y ética es crucial para un crecimiento continuo y mantener una ventaja competitiva. Es importante que este objetivo no se confunda con un objetivo técnico que deben alcanzar los científicos de datos e ingenieros. El despliegue responsable de la IA, ya sea que se utilice para fines internos o externos, requiere ser consciente de los riesgos éticos de la IA y de la incorporación organizativa a una estrategia que los mitigue.
— Escrito por Beena Ammanath Beena Ammanath Reid Blackman