Ética e IA: 3 conversaciones que las empresas deben tener

Ética e IA: 3 conversaciones que las empresas deben tener

Si bien las preocupaciones sobre la IA y las violaciones éticas se han vuelto comunes en las empresas, convertir estas ansiedades en conversaciones procesables puede ser difícil. Con las complejidades del aprendizaje automático, la ética y sus puntos de intersección, no hay soluciones rápidas y las conversaciones sobre estos problemas pueden parecer nebulosas y abstractas. Llegar a los resultados deseados requiere aprender a hablar de estos temas de manera diferente. En primer lugar, las empresas deben decidir quién debe ser parte de estas conversaciones. Luego, deben: 1) definir los estándares éticos de su organización para la IA, 2) identificar las brechas entre dónde se encuentra ahora y lo que sus estándares requieren, y 3) comprender las fuentes complejas de los problemas y poner en práctica las soluciones.

En los últimos años, las preocupaciones en torno a la ética de la IA se han generalizado. Las preocupaciones y los resultados que todos quieren evitar están ampliamente de acuerdo y bien documentados. Nadie quiere expulsar la IA discriminatoria o sesgada. Nadie quiere ser objeto de una demanda o investigación regulatoria por violaciones de la privacidad. Pero una vez que todos estemos de acuerdo en que la IA sesgada y de caja negra que viola la privacidad es mala, ¿a dónde vamos a partir de ahora? La pregunta que la mayoría de los líderes sénior se hacen es: ¿Cómo tomamos medidas para mitigar esos riesgos éticos?

Es admirable actuar rápidamente para abordar las preocupaciones, pero con las complejidades del aprendizaje automático, la ética y sus puntos de intersección, no hay soluciones rápidas. Para implementar, escalar y mantener estrategias eficaces de mitigación de riesgos éticos de IA, las empresas deben comenzar con un conocimiento profundo de los problemas que intentan resolver. Sin embargo, un desafío es que las conversaciones sobre la ética de la IA pueden parecer nebulosas. El primer paso, entonces, debe consistir en aprender a hablar de ello de manera concreta y práctica. A continuación, le mostramos cómo puede preparar la mesa para mantener conversaciones sobre ética de la IA de una manera que pueda aclarar los próximos pasos.

¿Quién debe participar?

Recomendamos crear un grupo de trabajo de alto nivel que sea responsable de impulsar la ética de la IA en su organización. Deben tener las habilidades, la experiencia y el conocimiento adecuados para que las conversaciones estén bien informadas sobre las necesidades comerciales, las capacidades técnicas y los conocimientos operativos. Como mínimo, recomendamos involucrar a cuatro tipos de personas: tecnólogos, expertos en legal/cumplimiento, especialistas en ética y líderes empresariales que entiendan los problemas que intenta resolver con el uso de la IA. Su objetivo colectivo es comprender las fuentes de los riesgos éticos en general, para la industria de la que son miembros y para su empresa en particular. Después de todo, no hay buenas soluciones sin una comprensión profunda del problema en sí y los obstáculos potenciales para las soluciones propuestas.

Necesita que el tecnólogo evalúe lo que es tecnológicamente factible, no solo a nivel de producto, sino también a nivel organizativo. Esto se debe a que, en parte, varios planes éticos de mitigación de riesgos requieren diferentes herramientas y habilidades tecnológicas. Saber dónde se encuentra su organización desde una perspectiva tecnológica puede ser esencial para determinar cómo identificar y cerrar las brechas más grandes.

Los expertos legales y de cumplimiento están ahí para ayudar a garantizar que cualquier nuevo plan de mitigación de riesgos sea compatible y no redundante con las prácticas de mitigación de riesgos existentes. Los problemas legales son particularmente importantes a la luz del hecho de que no está claro cómo las leyes y regulaciones existentes afectan a las nuevas tecnologías, ni qué nuevas regulaciones o leyes se están preparando.

Los especialistas en ética están ahí para ayudar a garantizar una investigación sistemática y exhaustiva de los riesgos éticos y de reputación a los que debe prestar atención, no solo en virtud del desarrollo y la adquisición de IA, sino también de los riesgos que son específicos de su industria y/o su organización. Su importancia es particularmente relevante porque el cumplimiento de regulaciones obsoletas no garantiza la seguridad ética y de reputación de su organización.

Por último, los líderes empresariales deben ayudar a garantizar que todos los riesgos se mitiguen de una manera que sea compatible con las necesidades y los objetivos de la empresa. El riesgo cero es una imposibilidad siempre y cuando alguien haga algo. Pero el riesgo innecesario es una amenaza para el resultado final, y las estrategias de mitigación del riesgo también deben elegirse teniendo en cuenta lo que es económicamente factible.

Tres conversaciones para impulsar las cosas

Una vez que el equipo esté en su lugar, aquí hay tres conversaciones cruciales que debe tener. Una conversación se refiere a llegar a un entendimiento compartido de los objetivos por los que debe esforzarse un programa de riesgo ético de IA. La segunda conversación se refiere a identificar las brechas entre dónde está la organización ahora y dónde quiere estar. La tercera conversación tiene como objetivo comprender las fuentes de esas brechas para que se aborden de manera integral y efectiva.

1) Defina el estándar ético de su organización para la IA.

Cualquier conversación debe reconocer que el cumplimiento legal (por ejemplo, la ley antidiscriminación) y el cumplimiento normativo (con, por ejemplo, el RGPD y/o la CCPA) están en juego. La pregunta a abordar es: Dado que el conjunto de riesgos éticos no es idéntico al conjunto de riesgos legales/regulatorios, ¿qué identificamos como los riesgos éticos para nuestra industria/organización y cuál es nuestra posición al respecto?

Hay muchas preguntas difíciles que necesitan respuestas aquí. Por ejemplo, ¿qué, según la luz de su organización, cuenta como un modelo discriminatorio? Supongamos, por ejemplo, que su software de contratación de IA discrimina a las mujeres pero discrimina menos de lo que históricamente han sido discriminados. ¿Es su punto de referencia para ser suficientemente imparcial «mejor de lo que lo han hecho los humanos en los últimos 10 años»? ¿O hay algún otro punto de referencia que consideres apropiado? Aquellos en el sector de los automóviles autónomos conocen bien esta pregunta: «¿Implementamos automóviles autónomos a escala cuando son mejores que el conductor humano promedio o cuando son al menos tan buenos (o mejores que) nuestros mejores conductores humanos?»

Se plantean preguntas similares en el contexto de los modelos de caja negra. ¿Cuál es la posición de su organización en cuanto a la explicabilidad? ¿Hay casos en los que el uso de una caja negra le parece aceptable (por ejemplo, siempre que se compare bien con el punto de referencia elegido)? ¿Cuáles son los criterios para determinar si una IA con resultados explicables es otiosa, agradable o necesaria?

Profundizar en estas preguntas le permite desarrollar marcos y herramientas para sus equipos de productos y los ejecutivos que dan luz verde a la implementación del producto. Por ejemplo, puede decidir que cada producto debe pasar por un proceso de diligencia debida de riesgos éticos antes de implementarse o incluso en las etapas más tempranas del diseño del producto. También puede establecer pautas con respecto a cuándo, si es que en algún momento, se pueden usar modelos de caja negra. Llegar a un punto en el que pueda articular cuáles son los estándares éticos mínimos que toda IA debe cumplir es una buena señal de que se ha progresado. También son importantes para ganarse la confianza de clientes y clientes, y demuestran que se ha realizado la debida diligencia en caso de que los reguladores investiguen si su organización ha implementado un modelo discriminatorio.

2) Identifique las brechas entre el lugar en el que se encuentra ahora y lo que exigen sus estándares.

Existen varias «soluciones» o «correcciones» técnicas para los problemas de ética de la IA. Varios productos de software, desde grandes tecnologías hasta Startups y organizaciones sin fines de lucro, ayudan a los científicos de datos a aplicar métricas cuantitativas de equidad a los resultados de sus modelos. Herramientas como LIME y SHAP ayudan a los científicos de datos a explicar cómo se obtienen los resultados en primer lugar. Pero prácticamente nadie piensa que estas soluciones técnicas, o cualquier solución tecnológica para el caso, mitiguen lo suficiente el riesgo ético y transformen a su organización en una que cumpla con sus estándares de ética de IA.

Su equipo de ética de IA debe determinar cuáles son sus límites respectivos y cómo sus habilidades y conocimientos pueden complementarse entre sí. Esto significa preguntar:

  1. ¿Cuál es, exactamente, el riesgo que intentamos mitigar?
  2. ¿Cómo nos ayuda el análisis cuantitativo y de software a mitigar ese riesgo?
  3. ¿Qué brechas dejan los análisis cuantitativos/de software?
  4. ¿Qué tipos de evaluaciones cualitativas necesitamos hacer, cuándo debemos hacerlas, sobre qué base las hacemos y quién debería hacerlas, para que esas lagunas se llenen adecuadamente?

Estas conversaciones también deben incluir una pieza crucial que se omite de manera estándar: qué nivel de madurez tecnológica se necesita para satisfacer (algunas) demandas éticas (por ejemplo, si tiene la capacidad tecnológica para proporcionar explicaciones que se necesitan en el contexto de las redes neuronales profundas). Tener conversaciones productivas sobre qué objetivos de gestión de riesgos éticos de IA son alcanzables requiere vigilar lo que es tecnológicamente factible para su organización.

Las respuestas a estas preguntas pueden proporcionar una orientación clara sobre los próximos pasos: evaluar qué soluciones cuantitativas pueden encajar con las prácticas existentes por parte de los equipos de productos, evaluar la capacidad de la organización para las evaluaciones cualitativas y evaluar cómo, en su organización, se pueden combinar estas cosas eficaz y sin problemas.

3) Comprender las fuentes complejas de los problemas y poner en práctica las soluciones.

Muchas conversaciones sobre el sesgo en la IA comienzan dando ejemplos e inmediatamente hablando de «conjuntos de datos sesgados». A veces, esto se deslizará a hablar de «sesgo implícito» o «sesgo inconsciente», que son términos tomados prestados de la psicología que carecen de una aplicación clara y directa a «conjuntos de datos sesgados». Pero no basta con decir que «los modelos se entrenan en conjuntos de datos sesgados» o que «la IA refleja nuestras políticas y acciones históricas discriminatorias en la sociedad».

El problema no es que estas cosas no sean (a veces, a menudo) ciertas; es que no puede ser todo el panorama. Comprender el sesgo en la IA requiere, por ejemplo, hablar de las diversas fuentes de resultados discriminatorios. Esto puede ser el resultado de los datos de entrenamiento; pero cómo, exactamente, esos conjuntos de datos pueden estar sesgados es importante, si por ninguna otra razón que la forma en que están sesgados informa cómo se determina la estrategia óptima de mitigación de sesgos. Abundan otros problemas: cómo se ponderan las entradas, dónde se establecen los umbrales y qué función objetiva se elige. En resumen, la conversación en torno a los algoritmos discriminatorios tiene que ir en torno a la fuente s del problema y cómo esas fuentes se conectan a diversas estrategias de mitigación de riesgos.

. . .

Las conversaciones productivas sobre ética deben ir más allá de los ejemplos generales de accidentes cerebrovasculares descritos por especialistas y no especialistas por igual. Su organización necesita a las personas adecuadas en la mesa para que sus estándares puedan definirse y profundizarse. Su organización debe combinar de manera fructífera sus enfoques cuantitativos y cualitativos con la mitigación ética del riesgo para poder cerrar las brechas entre dónde está ahora y dónde quiere que esté. Y debe apreciar la complejidad de las fuentes de los riesgos éticos de la IA. Al final del día, el riesgo ético de la IA no es nebuloso ni teórico. Es concreto. Y merece y requiere una atención nivelada que va mucho más allá de la repetición de titulares aterradores.

Reid Blackman Reid Blackman Beena Ammanath