Todos los miembros de su organización tienen que entender la ética de la IA
Cuando la mayoría de las organizaciones piensan en la ética de la IA, suelen pasar por alto algunas de las fuentes del mayor riesgo: los oficiales de aprovisionamiento, los altos directivos que carecen de la experiencia necesaria para examinar el riesgo ético en los proyectos de IA y los científicos e ingenieros de datos que no entienden los riesgos éticos de la IA. Solucionar este problema requiere tanto la concienciación como la aceptación de su programa de ética de la IA en toda la organización. Para lograrlo, considere estas seis estrategias: 1) elimine el miedo a no recibirlo de inmediato, 2) adapte el mensaje a su audiencia, 3) vincule sus esfuerzos al propósito de su empresa, 4) defina lo que significa la ética de una manera operativa, 5) apóyese en personas influyentes y de confianza y 6) nunca deje de educar.
••• Muchas organizaciones se han dado cuenta del imperativo empresarial de un programa de riesgos éticos de la IA. Innumerables informes de prensa —desde un reconocimiento facial defectuoso y discriminatorio hasta violaciones de la privacidad y algoritmos de caja negra con consecuencias que alteran la vida— lo han incluido en las agendas de las juntas directivas, los directores ejecutivos y los directores de datos y análisis. Sin embargo, lo que la mayoría de los líderes no entienden es que abordar estos riesgos requiere crear conciencia sobre ellos en toda la organización. Los que sí entienden esto a menudo no saben cómo proceder. Para las empresas que utilizan la IA, esto tiene que ser una de las principales prioridades. Más del 50% de los ejecutivos declaran una preocupación «importante» o «extrema» por los riesgos éticos y reputacionales de la IA en su organización, dado su nivel actual de preparación para[identificar y mitigar esos riesgos](https://www2.deloitte.com/us/en/insights/focus/cognitive-technologies/state-of-ai-and-intelligent-automation-in-business-survey.html?id=us:2el:3pr:4di6462:5awa:6di:MMDDYY:&pkid=1006825). Eso significa que [crear un programa de riesgos éticos para la IA](/2020/10/a-practical-guide-to-building-ethical-ai) que todo el mundo participe es necesario para desplegar la IA _en absoluto_. Si se hace bien, crear conciencia puede mitigar los riesgos a nivel táctico y prestarse a la implementación exitosa de un programa de riesgos éticos de la IA más general. Crear esta conciencia normalmente se divide en tres problemas importantes. En primer lugar, los oficiales de aprovisionamiento son una de las principales fuentes (y las que más se pasa por alto) de riesgos éticos de la IA. Los vendedores de IA venden en casi todos los departamentos de la organización, pero especialmente en RRHH, marketing y finanzas. Si sus oficiales de aprovisionamiento de RRHH no saben cómo hacer las preguntas correctas para examinar los productos de IA, pueden, por ejemplo, implicar el riesgo de discriminar a las subpoblaciones protegidas durante el proceso de contratación. En segundo lugar, los altos directivos no suelen tener los conocimientos necesarios para detectar los defectos éticos en la IA de su organización, lo que pone en riesgo a la empresa, tanto desde el punto de vista reputacional como legal. Por ejemplo, si un equipo de producto está preparado para implementar una IA, pero primero necesita la aprobación de un ejecutivo que sabe poco sobre los riesgos éticos del producto, la reputación de la marca (sin mencionar al ejecutivo) puede correr un alto riesgo. En tercer lugar, un programa de riesgos éticos de la IA requiere científicos e ingenieros de datos expertos. Si no entienden los riesgos éticos de la IA, puede que no entiendan sus nuevas responsabilidades tal como se articulan en el programa, o que las entiendan pero no entiendan su importancia, lo que a su vez lleva a no tomarlas en serio. Por otro lado, si usted tiene una organización que entiende los riesgos éticos, legales y de reputación de la IA, comprenderá la importancia de implementar un programa que aborde esas cuestiones de forma sistemática en toda la organización. Crear bien esta conciencia interorganizacional requiere trabajo. Requiere un mensaje coherente que también se adapte a las preocupaciones específicas de cada grupo. Al fin y al cabo, los intereses y responsabilidades de la alta dirección son diferentes de los de los propietarios y diseñadores de productos, que son diferentes de los de los científicos e ingenieros de datos; hablar en el mismo idioma con todos ellos significa que no hablan con ninguno de ellos. El mensaje no puede ser superficial o hará que la gente piense que la ética de la IA es una cuestión de RR.PP. o una preocupación de nicho. Y se necesita un líder claro de alta dirección responsable de diseñar y supervisar la ejecución de una estrategia que dé a conocer a toda la organización; este tema no se tomará en serio si el mensaje no viene desde arriba. Aquí es donde deberían empezar las organizaciones. ## Cómo crear conciencia y conseguir la aceptación Es crucial garantizar que todos los empleados conozcan los riesgos y se sientan vestados por el éxito de la IA dentro de la organización. No solo tienen que saber que estos problemas existen, sino que también tienen que saber cómo afectan esos riesgos a su trabajo en particular y cómo se ajustan a la descripción de su puesto. Una cosa es que alguien en Recursos Humanos sepa que tiene que contratar a las personas adecuadas para el puesto y cómo podría ser eso y, dicho sea de paso, ser consciente de los riesgos éticos de la IA. Otra cosa es que esa persona considere la identificación y la mitigación de esos riesgos como parte de su trabajo, por ejemplo, sabiendo que el cumplimiento responsable de sus responsabilidades incluye pedir a los proveedores de software de contratación que proporcionen documentación sobre cómo identificaron y mitigaron los sesgos de su IA. Estas son seis medidas que puede tomar para crear conciencia organizacional y lograr la participación de la manera correcta. **1. Elimine el miedo a la IA y a la ética de la IA.** Una barrera a la que se enfrentan las organizaciones es que el tema puede intimidar a las personas ajenas a TI. La «inteligencia artificial», el «aprendizaje automático» y los «algoritmos discriminatorios» pueden parecer conceptos abrumadores, lo que lleva a la gente a evitar por completo el tema. Para crear conciencia organizacional, es crucial que las personas se familiaricen y se sientan cómodas con los conceptos, si no con los fundamentos técnicos. Poseer conocimientos básicos de IA no es, en cierto sentido, muy difícil. Al fin y al cabo, el aprendizaje automático es, en esencia, aprender con el ejemplo, algo con lo que todo el mundo está familiarizado. Del mismo modo, ser malo en algo porque no tenía suficientes ejemplos también lo conoce todo el mundo. Si está comunicando a la gente cómo se podría crear un algoritmo discriminatorio, puede explicarle que algunos son el resultado de un software que no tenía suficientes ejemplos para aprender y, por lo tanto, el software comete errores (por ejemplo, no tiene suficientes ejemplos de rostros de mujeres negras para su software de reconocimiento facial, lo que hace que el software sea muy malo a la hora de distinguir rostros de mujeres negras). De manera más general, muchos de los riesgos éticos de la IA y sus diversas fuentes se pueden exponer a un público no técnico y dan como resultado que los empleados tengan la confianza necesaria para abordar los problemas. Exigir a su personal de RRHH y marketing que tenga un conocimiento básico del funcionamiento de la IA y de cómo surgen los riesgos éticos de la IA puede parecer una tarea difícil. Sin embargo, la mayoría de las organizaciones han creado una gran conciencia sobre los riesgos de ciberseguridad, lo que también implica conocimientos sobre ciberseguridad, y esto probablemente parecía prácticamente imposible antes de que las empresas se comprometieran a hacerlo realidad. Pero, si su gente no sabe lo básico, no sabrá hacer las preguntas correctas (por ejemplo, a los vendedores de IA) cuando sea crucial que lo hagan. **2. Adapte sus comunicaciones a su público**. Los altos líderes que se ven a sí mismos como guardianes de la reputación de su marca están interesados en evitar los riesgos que amenacen esa reputación. Para ellos, hablar en el lenguaje de «ética y reputación» _riesgo_» es importante que vean la relevancia de la ética de la IA para sus preocupaciones y responsabilidades. Los diseñadores de productos, por otro lado, están menos preocupados por evitar riesgos que por crear productos «interesantes» y útiles. Explicar cómo la ética de la IA mediante el diseño mejora sus productos, especialmente para el creciente número de consumidores y ciudadanos en general impulsados por valores, puede ser una forma muy eficaz de llegar a ese público. Por último, los científicos e ingenieros de datos quieren modelos sólidos que sean eficaces. Hablar su idioma significa explicar cómo los problemas de los algoritmos sesgados y las cajas negras reducen la potencia de la herramienta y/o su adopción. Nadie quiere crear un modelo impreciso o sin uso. También es importante dar ejemplos e historias de IA que salió mal y con las que cada público pueda identificarse. Esto no solo tiene por qué implicar los desastres de RR.PP. También puede incluir, por ejemplo, la incapacidad de Amazon de mitigar suficientemente los sesgos de su software de contratación impulsado por la IA, que[llevó admirablemente a Amazon a cerrar el proyecto](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G) en lugar de utilizar algo que pueda ser perjudicial tanto para los solicitantes de empleo como para la marca. Además, en la medida de lo posible, debería utilizar ejemplos específicos de su sector. Hay casos en los que la IA se ha dado cuenta de ciertos riesgos éticos en la atención médica, pero si habla con miembros de una tecnología financiera, los empleados se conectarán más con una historia de una empresa similar. **3. Vincule sus intentos de crear conciencia organizacional con la misión o el propósito de su empresa.** Si su misión o propósito ya está integrado en la cultura de su organización, integre su debate sobre la ética de la IA con eso. Explique cómo la ética y la gestión ética del riesgo de la IA son una extensión más de esa misión, un conjunto de barreras en torno a lo que (no) está dispuesto a hacer en pos de esa misión. Por ejemplo, su misión podría ser ofrecer el mejor asesoramiento financiero posible. Pero no puede dar ese consejo a menos que la gente confíe en usted y la gente no pueda confiar en usted si es negligente en el despliegue de la IA. Cuando la IA va mal, sale mal a gran escala, por lo que comunicar a su organización que parte de ofrecer el mejor asesoramiento financiero posible implica proteger a sus clientes, y que parte de protegerlos requiere el despliegue ético, responsable o confiable de la IA, la ética de la IA ya no se ve como algo inherente a sus operaciones. En cambio, comunica que es una extensión más de su misión y sus valores fundamentales. **4. Defina lo que significa la ética de la IA en su organización de forma operativa**. Una cosa es decir que está «a favor de la privacidad» o que «respeta la privacidad». Otra cosa es hacer algo al respecto. Para asegurarse de que sus compromisos con los valores éticos de la IA no se consideren meras relaciones públicas, vincule esos compromisos a barreras éticas, por ejemplo, «nunca venderemos sus datos a terceros» o «siempre anonimizaremos los datos compartidos con terceros». Si tiene una declaración ética de la IA bien elaborada, incluirá esas barandillas, que desempeñan una doble función. En primer lugar, comunican a su equipo lo que realmente está haciendo (o planea hacer) en relación con los riesgos éticos de la IA. Y segundo, inmediatamente comunica que no se trata de RR.PP. ni de algo confuso. Cuando los valores se articulan y comunican de una manera que los vincula a las acciones, esas comunicaciones son creíbles y memorables. Una forma de hacer que su audiencia comprenda que la ética de la IA no es confusa y es algo que se puede implementar es explicar las cuestiones éticas muy reales y difíciles a las que se enfrenta la atención médica y las formas en que se han abordado esas cuestiones. En relación con esto, puede hablar sobre cómo el sector de la salud ha incorporado la mitigación ética del riesgo en la infraestructura y los procesos para que se den cuenta de que es posible hacerlo. **5. Invite a miembros influyentes y de confianza de diversas funciones a que se unan a sus esfuerzos**. Algunas organizaciones, como Microsoft, han creado un sistema de «campeones de la ética de la IA». Son personas de toda la organización que se encargan de crear conciencia sobre los riesgos éticos de la IA en sus equipos. Una característica importante de un programa de campeones de la ética de la IA es que empodera a los líderes que ya cuentan con la confianza y el apoyo de su equipo. Además, conocen mejor a sus respectivos equipos que, por ejemplo, el director de aprendizaje o el director de datos, o quien dirija la estrategia de sensibilización de la organización. **6. Educar continuamente.** Crear conciencia organizacional no es algo que se haga un miércoles por la tarde o en un retiro de fin de semana. Requiere puntos de contacto continuos y diversos, desde ponentes internos y externos, talleres, boletines, etc. De hecho, la IA y las tecnologías emergentes en general están cambiando y evolucionando rápidamente, y con esos cambios vienen nuevas fuentes de riesgo ético. Para garantizar que su organización no se quede demasiado atrás, educar continuamente a su personal será un baluarte crucial contra la creciente ola de avances tecnológicos. Los líderes empresariales saben que averiguar cómo desarrollar, adquirir y desplegar la IA de manera segura y ética es crucial para seguir creciendo y mantener una ventaja competitiva. Es importante que este objetivo no se confunda con un objetivo técnico que deban alcanzar los científicos e ingenieros de datos. El despliegue responsable de la IA, ya sea que se utilice con fines internos o externos, exige ser conscientes de los riesgos éticos de la IA y la participación de la organización en una estrategia que los mitigue.