Ética e IA: tres conversaciones que las empresas deben mantener

Si bien la preocupación por la IA y las infracciones éticas se ha hecho común en las empresas, puede resultar difícil convertir estas ansiedades en conversaciones prácticas. Con las complejidades del aprendizaje automático, la ética y sus puntos de intersección, no hay soluciones rápidas y las conversaciones sobre estos temas pueden parecer nebulosas y abstractas. Llegar a los resultados deseados requiere aprender a hablar de estos temas de manera diferente. En primer lugar, las empresas deben decidir quién debe formar parte de estas conversaciones. Luego, deberían: 1) definir las normas éticas de su organización en materia de IA, 2) identificar las brechas entre su situación actual y lo que exigen sus normas, y 3) entender las complejas fuentes de los problemas y poner en práctica las soluciones.

••• Durante los últimos años, las preocupaciones en torno a la ética de la IA se han generalizado. Las preocupaciones y los resultados que todo el mundo quiere evitar están ampliamente de acuerdo y están bien documentados. Nadie quiere expulsar la IA discriminatoria o sesgada. Nadie quiere ser objeto de una demanda o investigación reglamentaria por violaciones de la privacidad. Pero una vez que todos estemos de acuerdo en que la IA sesgada, de caja negra y que viola la privacidad es mala, ¿hacia dónde vamos desde ahora? La pregunta que casi todos los altos directivos se hacen es: ¿Cómo tomamos medidas para mitigar esos riesgos éticos? Actuar con rapidez para abordar las preocupaciones es admirable, pero con las complejidades del aprendizaje automático, la ética y sus puntos de intersección, no hay soluciones rápidas. Para implementar, escalar y mantener estrategias éticas eficaces de mitigación de los riesgos de la IA, las empresas deberían empezar por una comprensión profunda de los problemas que intentan resolver. Sin embargo, un desafío es que las conversaciones sobre la ética de la IA pueden parecer confusas. El primer paso, entonces, debería consistir en aprender a hablar de ello de formas concretas y prácticas. Así es como puede preparar la mesa para mantener conversaciones sobre ética de la IA de una manera que deje claros los próximos pasos. ## ¿Quién tiene que participar? Le recomendamos crear un grupo de trabajo de alto nivel que se encargue de impulsar la ética de la IA en su organización. Deben tener las habilidades, la experiencia y los conocimientos adecuados para que las conversaciones estén bien informadas sobre las necesidades de la empresa, las capacidades técnicas y los conocimientos operativos. _Como mínimo_, le recomendamos la participación de cuatro tipos de personas: tecnólogos, expertos en derecho y cumplimiento, especialistas en ética y líderes empresariales que entiendan los problemas que intenta resolver con el uso de la IA. Su objetivo colectivo es entender las fuentes de los riesgos éticos en general, para el sector al que pertenecen y para su empresa en particular. Al fin y al cabo, no hay buenas soluciones sin una comprensión profunda del problema en sí y de los posibles obstáculos a las soluciones propuestas. Necesita que el tecnólogo evalúe lo que es tecnológicamente factible, no solo a nivel de producto sino también a nivel organizativo. Esto se debe a que, en parte, varios planes éticos de mitigación del riesgo requieren diferentes herramientas y habilidades tecnológicas. Saber dónde se encuentra su organización desde el punto de vista tecnológico puede ser esencial para determinar cómo identificar y cerrar las brechas más importantes. Los expertos legales y en cumplimiento están ahí para ayudar a garantizar que cualquier nuevo plan de mitigación de riesgos sea compatible y no redundante con las prácticas de mitigación de riesgos existentes. Las cuestiones legales cobran especial importancia a la luz del hecho de que no está claro cómo las leyes y reglamentos existentes influyen en las nuevas tecnologías, ni qué nuevos reglamentos o leyes se están tramitando. Los especialistas en ética están ahí para ayudar a garantizar una investigación sistemática y exhaustiva de los riesgos éticos y de reputación a los que debe prestar atención, no solo en virtud del desarrollo y la adquisición de la IA, sino también los riesgos que son específicos de su sector o su organización. Su importancia es particularmente relevante porque el cumplimiento de normas anticuadas no garantiza la seguridad ética y reputacional de su organización. Por último, los líderes empresariales deberían ayudar a garantizar que todos los riesgos se mitiguen de una manera que sea compatible con las necesidades y los objetivos de la empresa. El riesgo cero es imposible mientras alguien haga algo. Sin embargo, el riesgo innecesario es una amenaza para los resultados, y las estrategias de mitigación del riesgo también deben elegirse teniendo en cuenta lo que sea económicamente factible. ## Tres conversaciones para hacer que las cosas avancen Una vez que el equipo esté establecido, he aquí tres conversaciones cruciales que debe mantener. Una conversación se refiere a llegar a un entendimiento compartido de los objetivos que debe perseguir un programa de riesgo ético de la IA. La segunda conversación trata sobre la identificación de las brechas entre el lugar en el que se encuentra la organización ahora y el lugar donde quiere estar. La tercera conversación tiene como objetivo entender las fuentes de esas brechas para abordarlas de manera exhaustiva y eficaz. ### 1) Defina la norma ética de su organización en materia de IA. Cualquier conversación debe reconocer que el cumplimiento legal (por ejemplo, la ley antidiscriminación) y el cumplimiento normativo (con, por ejemplo, el GDPR o la CCPA) están en juego. La pregunta que hay que abordar es: dado que el conjunto de riesgos éticos no es idéntico al conjunto de riesgos legales o reglamentarios, ¿qué identificamos como riesgos éticos para nuestro sector u organización y cuál es nuestra posición al respecto? Hay muchas preguntas difíciles que necesitan respuesta aquí. Por ejemplo, ¿qué es lo que, según la perspectiva de su organización, se considera un modelo discriminatorio? Supongamos, por ejemplo, que su software de contratación de IA discrimina a las mujeres, pero discrimina _menos_ de lo que han sido discriminados históricamente. ¿Es su punto de referencia lo suficientemente imparcial como para decir «mejor de lo que lo han hecho los humanos en los últimos 10 años»? ¿O hay algún otro punto de referencia que considere apropiado? Los miembros del sector de los automóviles autónomos conocen bien la pregunta: «¿Implementamos los coches autónomos a gran escala cuando son mejores que el conductor humano promedio o cuando son al menos tan buenos (o mejores que) nuestros mejores conductores humanos?» Se plantean preguntas similares en el contexto de los modelos de caja negra. ¿Cuál es la posición de su organización en cuanto a la explicabilidad? ¿Hay casos en los que el uso de una caja negra le parezca aceptable (por ejemplo, siempre y cuando tenga buenos resultados con respecto al índice de referencia elegido)? ¿Cuáles son los criterios para determinar si una IA con resultados explicables es ociosa, es buena tenerla o es necesaria? Profundizar en estas cuestiones le permite desarrollar marcos y herramientas para sus equipos de productos y los ejecutivos que dan luz verde al despliegue del producto. Por ejemplo, puede decidir que todos los productos deben pasar por un proceso de diligencia ética con la debida diligencia en materia de riesgos antes de su despliegue o incluso en las primeras etapas del diseño del producto. También puede fijar las directrices sobre cuándo, si es que se pueden utilizar en algún momento, los modelos de caja negra. Llegar a un punto en el que pueda articular cuáles son las normas éticas mínimas que debe cumplir toda la IA es una buena señal de que se han realizado avances. También son importantes para ganarse la confianza de los clientes y demuestran que ha actuado con la diligencia debida en caso de que los reguladores investiguen si su organización ha utilizado un modelo discriminatorio. ### 2) Identifique las brechas entre el lugar en el que se encuentra ahora y lo que exigen sus normas. Hay varias «soluciones» o «correcciones» técnicas para los problemas éticos de la IA. Varios productos de software, desde la gran tecnología hasta las empresas emergentes y las organizaciones sin fines de lucro, ayudan a los científicos de datos a aplicar métricas cuantitativas de equidad a los resultados de sus modelos. Herramientas como LIME y SHAP ayudan a los científicos de datos a explicar cómo se obtienen los resultados en primer lugar. Pero prácticamente nadie cree que estas soluciones técnicas, o cualquier otra solución tecnológica, mitiguen de manera suficiente el riesgo ético y transformen su organización en una que cumpla con sus normas éticas de IA. Su equipo de ética de la IA debe determinar cuáles son sus límites respectivos y cómo sus habilidades y conocimientos pueden complementarse entre sí. Esto significa preguntar: 1. ¿Cuál es exactamente el riesgo que estamos intentando mitigar? 2. ¿Cómo nos ayuda el software y el análisis cuantitativo a mitigar ese riesgo? 3. ¿Qué huecos dejan los análisis cuantitativos y del software? 4. ¿Qué tipos de evaluaciones cualitativas necesitamos hacer, cuándo las tenemos que hacer, sobre qué base las hacemos y quién debe hacerlas para cubrir esos vacíos de manera adecuada? Estas conversaciones también deberían incluir un tema crucial que normalmente se omite: qué nivel de madurez tecnológica se necesita para satisfacer (algunas) exigencias éticas (por ejemplo, si tiene la capacidad tecnológica para dar las explicaciones que se necesitan en el contexto de las redes neuronales profundas). Mantener conversaciones productivas sobre qué objetivos de gestión ética de los riesgos de la IA son alcanzables requiere vigilar lo que es tecnológicamente factible para su organización. Las respuestas a estas preguntas pueden proporcionar una orientación clara sobre los próximos pasos: evaluar qué soluciones cuantitativas pueden incluir los equipos de productos con las prácticas existentes, evaluar la capacidad de la organización para realizar evaluaciones cualitativas y evaluar cómo, en su organización, estas cosas pueden combinarse de forma eficaz y sin problemas. ### 3) Comprenda las complejas fuentes de los problemas y ponga en práctica las soluciones. Muchas conversaciones sobre los sesgos en la IA comienzan con dar ejemplos e inmediatamente hablan de «conjuntos de datos sesgados». A veces esto se convierte en «sesgo implícito» o «sesgo inconsciente», que son términos tomados de la psicología que no tienen una aplicación clara y directa a los «conjuntos de datos sesgados». Pero no basta con decir que «los modelos se basan en conjuntos de datos sesgados» o «la IA refleja nuestras acciones y políticas sociales discriminatorias históricas». La cuestión no es que estas cosas no sean ciertas (a veces, a menudo), sino que no puede ser el panorama completo. Para entender los sesgos en la IA es necesario, por ejemplo, hablar de las diversas fuentes de resultados discriminatorios. Puede ser el resultado de los datos de entrenamiento, pero _cómo_, exactamente, esos conjuntos de datos pueden estar sesgados es importante, aunque no sea por otra razón que la forma en que están sesgados informa la forma en que se determina la estrategia óptima de mitigación de sesgos. Abundan otras cuestiones: cómo se ponderan las entradas, dónde se establecen los umbrales y qué función objetivo se elige. En resumen, la conversación en torno a los algoritmos discriminatorios tiene que centrarse en la fuente _s_ del problema y de cómo esas fuentes se conectan con varias estrategias de mitigación de riesgos. . . . Las conversaciones productivas sobre ética deberían ir más allá de los ejemplos generales descritos por especialistas y no especialistas por igual. Su organización necesita a las personas adecuadas en la mesa para poder definir y profundizar sus estándares. Su organización debería unir de manera fructífera sus enfoques cuantitativos y cualitativos de la mitigación ética del riesgo para poder cerrar las brechas entre el lugar en el que se encuentra ahora y el lugar en el que quiere que esté. Y debería darse cuenta de la complejidad de las fuentes de sus riesgos éticos de la IA. Al final del día, el riesgo ético de la IA no es nebuloso ni teórico. Es hormigón. Y se merece y requiere un nivel de atención que vaya mucho más allá de la repetición de titulares aterradores.