Crear un Comité de Ética para mantener su iniciativa de IA bajo control

Crear un Comité de Ética para mantener su iniciativa de IA bajo control

Resumen.

Las sensibilidades contemporáneas al sesgo están creciendo, y esto sólo aumentará con la proliferación y ubicuidad de la Inteligencia Artificial (IA). Las organizaciones que utilizan IA están empezando a reconocer el papel que deben desempeñar valores sólidos a nivel de toda la organización en el fomento de la innovación responsable. Muchas empresas están creando comités de ética de datos e inteligencia artificial, no solo para mantener las intenciones basadas en valores de una organización, sino también para aumentar la transparencia en la forma en que utilizan la IA. La idea no es simplemente abordar el sesgo humano, el sesgo estadístico y la equidad, sino también aumentar la madurez organizacional en cuanto a cómo los productos y servicios basados en IA afectan a las partes interesadas, incluidas las sociedades civiles. Un comité de ética puede proporcionar un bucle de retroalimentación institucional sobre cómo están funcionando las AI en el mundo real, dando valiosas ideas a diseñadores, ingenieros y equipos ejecutivos. Establecer este nivel de gobierno ético es fundamental para ayudar a los ejecutivos a mitigar los riesgos a medida que incorporan IA en sus productos y servicios.


WITF-FM, una emisora pública de radio, televisión y noticias en línea en el centro de Pennsylvania, incluye la siguiente declaración anterior cobertura de noticias: «El WITF se esfuerza por proporcionar perspectivas matizadas desde las fuentes más autorizadas. Estamos a la búsqueda de sesgos o supuestos en nuestro propio trabajo, y te invitamos a señalar cualquier cosa que nos hayamos perdido».

No es raro que las organizaciones de noticias inviten comentarios y comentarios de su audiencia; de hecho, la mayoría lo animan. Pero la WITF ha ido más allá de una invitación general para el compromiso. Esta declaración pone de relieve el potencial de sesgo en sus propios informes, y su intento de evitarlo.

Las sensibilidades contemporáneas al sesgo están creciendo, y esto sólo aumentará con la proliferación y ubicuidad de la Inteligencia Artificial (IA). La mayoría de los sistemas de IA actuales se construyen a través del aprendizaje automático, una técnica que requiere cualquiera de los miles de algoritmos potenciales para «aprender» patrones de existencias extremadamente grandes de datos. Esto debería producir un modelo que sea predictivo de escenarios futuros del mundo real, pero el sesgo sesgue la precisión de estos modelos. Las organizaciones que usan IA están empezando a reconocer el papel que los valores sólidos de toda la organización deben desempeñar en el fomento de la innovación responsable, y al igual que WITF, muchos líderes van más allá. Por ejemplo, Marc Benioff, fundador y co-director general de Salesforce, aboga por que las empresas asuman la responsabilidad de sus contribuciones a la sociedad. Esos valores están muy alineados con la cultura de la empresa de Salesforce, que priorizó la creación de dos papeles primeros en su tipo: Director de Igualdad (Tony Prophet) y una directora de uso humano y ética (Paula Goldman), para elevar la responsabilidad de proteger estos valores organizacionales a la C- Suite.

Con un fuerte compromiso en toda la organización, las empresas pueden alinear, distribuir y escalar la toma de decisiones impulsadas por valores, lo que genera una enorme confianza con las partes interesadas internas y externas. Esta es la base de una organización responsable.

Pero mantener los valores de una organización en todos los productos y servicios, especialmente a medida que las organizaciones empiezan a utilizar la IA para ayudar a tomar decisiones o informar, requerirá una sólida gobernanza interna. Considere una situación en la que la tecnología de IA se percibe como injusta o mal funcionamiento. ¿Puede el creador rendir cuentas? ¿Existe un recurso para los consumidores en forma de ingeniero responsable, una junta de gobierno interno o incluso una gobernanza externa? Para volver a utilizar el ejemplo de Salesforce, la compañía se gobierna a sí misma a través de un comité ético rico en partes interesadas que supervisa las decisiones relacionadas con la ética en la organización.

Cada organización puede crear un sólido marco de gobierno interno para abordar la forma en que diseñan e implementan la IA. En colaboración con el Instituto de Ética de Northeastern University, Accenture ha publicado un informe sobre Creación de comités de ética de datos y IA, que puede servir como manual. Proporciona una hoja de ruta e identifica las decisiones clave que las organizaciones tendrán que tomar: ¿Qué aspecto tiene el éxito? ¿Cuáles son los valores que el comité tiene la intención de promover y proteger? ¿Qué tipos de experiencia se necesitan? ¿Cuál es el ámbito de competencia del comité? ¿Cuáles son las normas por las que se dictan los juicios?

Establecer este nivel de gobierno ético es fundamental para ayudar a los ejecutivos a mitigar los riesgos a la baja, ya que abordar el sesgo de IA puede ser extremadamente complejo. Los científicos de datos y los ingenieros de software tienen sesgos al igual que todos los demás, y cuando permiten que estos sesgos se arraigen en algoritmos o en los conjuntos de datos utilizados para entrenarlos, aunque sea involuntariamente, puede dejar que los sujetos a la IA sientan que han sido tratados injustamente. Pero eliminar el sesgo para tomar decisiones justas no es una ecuación sencilla.

Si bien muchas definiciones coloquiales de «sesgo» implican «equidad», hay una distinción importante entre ambas. El sesgo es una característica de los modelos estadísticos, mientras que la equidad es un juicio contra los valores de una comunidad. Los entendimientos compartidos de la equidad son diferentes a través de las culturas. Pero lo más crítico a entender es su relación. La sensación intestinal puede ser que la equidad requiere una falta de sesgo, pero de hecho, los científicos de datos a menudo deben introducir sesgo con el fin de lograr la equidad.

Considere un modelo creado para agilizar la contratación o las promociones. Si el algoritmo aprende de los datos históricos, en los que las mujeres han estado insuficientemente representadas en la fuerza de trabajo, en el modelo surgirán miríadas de sesgos contra las mujeres. Para corregir esto, los científicos de datos podrían optar por introducir sesgos: equilibrar la representación de género en los datos históricos, crear datos sintéticos para llenar lagunas o corregir un tratamiento equilibrado (equidad) en la aplicación de decisiones basadas en datos. En muchos casos, no hay forma posible de ser imparcial y justo.

Un Comité de Ética puede ayudar no sólo a mantener las intenciones basadas en valores de una organización, sino que también puede aumentar la transparencia en la forma en que utilizan la IA. Incluso cuando se aborda, el sesgo de IA puede ser enloquecedor y frustrante para los usuarios finales, y la mayoría de las empresas que implementan AI hoy están sometiendo a las personas a ello sin darles mucha agencia en el proceso. Considere la experiencia de usar una aplicación de mapeo. Cuando los viajeros simplemente se les dice qué ruta tomar, es una experiencia despojada de agencia; pero cuando se ofrece a los usuarios un conjunto de rutas alternativas, se sienten más confiados en la ruta seleccionada porque disfrutaron de más agencia, o autodeterminación, al elegirla. Maximizar la agencia cuando se está utilizando la IA es otra salvaguardia fuerte gobierno puede ayudar a garantizar.

Las organizaciones que eligen establecer un comité de ética no se limitan a abordar el sesgo humano, el sesgo estadístico y la equidad; su alcance de preocupaciones suele ser mucho más amplio, y a menudo incluye el deseo de aumentar la madurez organizacional en cuanto a cómo sus productos y servicios impactan a las partes interesadas, incluyendo las sociedades civiles. La gobernanza basada en comités proporciona un bucle de retroalimentación institucional sobre cómo están funcionando las AI en el mundo real, proporcionando información valiosa a diseñadores, ingenieros y equipos ejecutivos. El comité debe estar integrado por personas que representen opiniones diferentes, tengan perspectivas internas y externas, y tengan diferentes antecedentes técnicos y no técnicos. Quienes forman parte de estos comités, por qué fueron seleccionados, ante quién rinden cuentas y cuál es su propósito, deben ser claramente pensados y articulados.

Para liderar este espacio, las organizaciones deberían centrarse en tres áreas de crecimiento:

  • Establecer la gobernanza para la ética y la IA. Las consecuencias no deseadas de la IA pueden ser graves y pueden presentar riesgos existenciales para las organizaciones. Un gobierno sólido y rico en partes interesadas es la mejor oportunidad que tienen las organizaciones de identificar y gestionar los riesgos potenciales. Algunas organizaciones encuentran más factible implementar la «gobernanza esencial», integraciones de procesos basadas en equipos que introducen una fricción mínima y tienen el menor potencial para retrasar un proyecto. Si bien esta podría ser una forma conveniente de comenzar, su valor estratégico para la organización será limitado.
  • Describa cómo/cuándo ocurre la justicia y cómo/qué sesgos se han tenido en cuenta. Las organizaciones responsables y los científicos de datos invierten cantidades extraordinarias de tiempo y recursos deliberando sobre qué sesgos podrían existir en los datos, cómo se manejan esos datos y qué podría amplificarse o mitigarse mediante la selección de algoritmos. Estos sesgos podrían afectar la imparcialidad percibida de los modelos de IA, por lo que deben considerarse cuidadosamente por adelantado.
  • Proporcionar mecanismos de recurso. Cada organización que implemente AI debe ser capaz de explicar por qué y por qué medida la solución es mejor que lo que ya existe. Esto establece lo que los sujetos a las AI deben esperar. Cuando el sistema de IA no cumple con las expectativas del usuario final, deben disponer de formas de recurso inmediatas y de fácil acceso; las organizaciones deben considerar formas de proporcionar recurso a un ingeniero responsable (o equipo que sea propietario del producto), la gobernanza interna (como una IA o un comité de ética) y externos gobernanza (como un regulador).

La forma en que las organizaciones eligen abordar el sesgo, la equidad, la gobernanza y el recurso para la IA ciertamente variará, pero la necesidad de crear un gobierno sólido solo aumentará para todos. Aquellos que empiecen temprano disfrutarán de las ventajas del mercado tanto en contextos B2B como B2C. Los rezagados pueden verse enajenados, por competidores que gestionan sus riesgos digitales, y por consumidores que buscan equidad y rendición de cuentas en las tecnologías que deciden utilizar.

Escrito por Steven Tiell