Cree un comité de ética para mantener su iniciativa de IA bajo control

La sensibilidad contemporánea a los prejuicios está aumentando, y esto no hará más que aumentar con la proliferación y la ubicuidad de la inteligencia artificial (IA). Las organizaciones que utilizan la IA están empezando a reconocer el papel que deben desempeñar valores sólidos para toda la organización en el fomento de la innovación responsable. Muchas empresas están creando comités de ética de datos e IA, no solo para mantener las intenciones de la organización basadas en los valores, sino también para aumentar la transparencia en la forma en que utilizan la IA. La idea no es simplemente abordar los prejuicios humanos, los sesgos estadísticos y la imparcialidad, sino también aumentar la madurez organizacional en lo que respecta a la forma en que los productos y servicios basados en la IA afectan a las partes interesadas, incluida la sociedad civil. Un comité de ética puede proporcionar un circuito de retroalimentación institucional sobre el rendimiento de la IA en el mundo real y ofrecer información valiosa a los diseñadores, ingenieros y equipos ejecutivos. Establecer este nivel de gobierno ético es fundamental para ayudar a los ejecutivos a mitigar los riesgos al incorporar la IA en sus productos y servicios.

••• WITF-FM, una emisora pública de radio, televisión y noticias en línea en el centro de Pensilvania, incluye la siguiente declaración arriba, seleccione en línea[cobertura de noticias](https://www.witf.org/2018/01/30/pennsylvanias_us_senators_lay_out_expectations_for_sotu/): «El WITF se esfuerza por ofrecer puntos de vista matizados de las fuentes más autorizadas. Estamos atentos a los sesgos o suposiciones en nuestro propio trabajo y le invitamos a señalar los que no hayamos tenido en cuenta». No es raro que las organizaciones de noticias inviten a su audiencia a hacer comentarios y opiniones; de hecho, la mayoría lo fomenta. Pero el WITF ha ido más allá de una invitación general de compromiso. Esta declaración destaca la posibilidad de sesgo en sus propios informes y su intento de evitarlo. La sensibilidad contemporánea a los prejuicios está aumentando, y esto no hará más que aumentar con la proliferación y la ubicuidad de la inteligencia artificial (IA). La mayoría de los sistemas de IA actuales se crean mediante el aprendizaje automático, una técnica que requiere cualquiera de los miles de posibles algoritmos para «aprender» patrones a partir de reservas de datos extremadamente grandes. Esto debería producir un modelo que prediga los escenarios futuros del mundo real, pero el sesgo sesga la precisión de estos modelos. Las organizaciones que utilizan la IA están empezando a reconocer el papel que deben desempeñar valores sólidos para toda la organización en el fomento de la innovación responsable y, al igual que WITF, muchos líderes van más allá. Por ejemplo, Marc Benioff, fundador y codirector ejecutivo de Salesforce, aboga abiertamente por que las empresas asuman la responsabilidad de sus contribuciones a la sociedad. Esos valores están muy alineados con la cultura empresarial de Salesforce, que priorizó la creación de dos puestos únicos en su tipo: director de igualdad (Tony Prophet) y directora de ética y uso humano (Paula Goldman), para elevar la responsabilidad de proteger estos valores organizacionales a la alta dirección. Con un fuerte compromiso en toda la organización, las empresas pueden alinear, distribuir y escalar la toma de decisiones basada en valores, lo que genera una enorme confianza entre las partes interesadas internas y externas. Esta es la base de una organización responsable. Sin embargo, mantener los valores de una organización en todos los productos y servicios, especialmente a medida que las organizaciones comiencen a utilizar la IA para ayudar a tomar decisiones o informarlas, requerirá una sólida gobernanza interna. Considere una situación en la que la tecnología de IA se perciba como injusta o que funciona mal. ¿Se puede hacer responsable al creador? ¿Hay recursos para los consumidores en forma de un ingeniero responsable, un consejo de gobierno interno o incluso un gobierno externo? Para volver a usar el ejemplo de Salesforce, la empresa se gobierna a sí misma a través de un comité de ética compuesto por numerosas partes interesadas que supervisa las decisiones relacionadas con la ética en la organización. Todas las organizaciones pueden crear un marco de gobierno interno sólido para abordar la forma en que diseñan e implementan la IA. En colaboración con el Instituto de Ética de la Universidad Northeastern, Accenture ha publicado un informe sobre[_Crear comités de ética de datos e IA_](https://www.accenture.com/us-en/insights/software-platforms/building-data-ai-ethics-committees) , que puede servir de manual. Proporciona una hoja de ruta e identifica las decisiones clave que las organizaciones deberán tomar: ¿Qué aspecto tiene el éxito? ¿Cuáles son los valores que el comité debe promover y proteger? ¿Qué tipos de experiencia se necesitan? ¿Cuál es el ámbito de competencia de la comisión? ¿Cuáles son las normas con las que se toman las decisiones? Establecer este nivel de gobierno ético es fundamental para ayudar a los ejecutivos a mitigar los riesgos a la baja, ya que abordar los sesgos de la IA puede resultar extremadamente complejo. Los científicos de datos y los ingenieros de software tienen sesgos como todos los demás, y cuando permiten que estos sesgos se infiltren en los algoritmos o en los conjuntos de datos utilizados para entrenarlos, aunque sea sin intención, pueden hacer que las personas sometidas a la IA sientan que han recibido un trato injusto. Pero eliminar los prejuicios para tomar decisiones justas no es una ecuación sencilla. Si bien muchas definiciones coloquiales de «sesgo» implican «equidad», hay una distinción importante entre ambas. El sesgo es una característica de los modelos estadísticos, mientras que la imparcialidad es un juicio en contra de los valores de una comunidad. La comprensión compartida de la equidad es diferente en todas las culturas. Pero lo más importante que hay que entender es su relación. El presentimiento puede ser que la equidad requiere una falta de sesgo, pero de hecho, los científicos de datos a menudo deben[introducir sesgos para lograr la equidad](https://www.technologyreview.com/s/613508/ai-fairer-than-judge-criminal-risk-assessment-algorithm). Considere un modelo creado para agilizar la contratación o los ascensos. Si el algoritmo aprende de datos históricos, en los que las mujeres han estado infrarrepresentadas en la fuerza laboral, surgirán innumerables sesgos en contra de las mujeres en el modelo. Para corregir esto, los científicos de datos podrían optar por introducir sesgos: equilibrar la representación de género en los datos históricos, crear datos sintéticos para cubrir los vacíos o corregir para lograr un tratamiento equilibrado (equidad) en la aplicación de decisiones basadas en los datos. En muchos casos, no hay manera posible de ser a la vez imparcial y justo. Un comité de ética puede ayudar no solo a mantener las intenciones de una organización basadas en los valores, sino también a aumentar la transparencia en la forma en que utiliza la IA. Incluso si se aborda, el sesgo de la IA puede seguir siendo enloquecedor y frustrante para los usuarios finales, y la mayoría de las empresas que implementan la IA hoy en día someten a las personas a ello sin darles mucha agencia en el proceso. Considere la experiencia de usar una aplicación de mapas. Cuando a los viajeros simplemente se les dice qué ruta tomar, es una experiencia sin agencia; pero cuando a los usuarios se les ofrece un conjunto de rutas alternativas, se sienten más seguros en la ruta seleccionada porque han disfrutado de más agencia o autodeterminación a la hora de elegirla. Maximizar la agencia cuando se utiliza la IA es otra salvaguardia que una gobernanza sólida puede ayudar a garantizar. Las organizaciones que optan por establecer un comité de ética no se limitan a abordar los prejuicios humanos, los sesgos estadísticos y la imparcialidad; su ámbito de preocupación suele ser mucho más amplio y, a menudo, incluye el deseo de aumentar la madurez organizacional en relación con la forma en que sus productos y servicios afectan a las partes interesadas, incluida la sociedad civil. La gobernanza basada en comités proporciona un circuito de retroalimentación institucional sobre el rendimiento de la IA en el mundo real y proporciona información valiosa a los diseñadores, ingenieros y equipos ejecutivos. El comité debe estar compuesto por personas que representen puntos de vista diferentes, que tengan puntos de vista internos y externos y que tengan diferentes formaciones técnicas y no técnicas. Se debe pensar y articular con claridad quiénes forman parte de estos comités, por qué fueron seleccionados, ante quién rinden cuentas y cuál es su propósito. Para liderar en este ámbito, las organizaciones deben centrarse en tres áreas de crecimiento: - **Establecer una gobernanza para la ética y la IA**. Las consecuencias no deseadas de la IA pueden ser graves y suponer un riesgo existencial para las organizaciones. Una gobernanza sólida y rica en partes interesadas es la mejor oportunidad que tienen las organizaciones de identificar y gestionar los posibles riesgos. A algunas organizaciones les resulta más factible implementar la «gobernanza esencial», es decir, integraciones de procesos basadas en equipos que introduzcan una fricción mínima y tengan el menor potencial de retrasar un proyecto. Si bien esta puede ser una forma rápida de empezar, su valor estratégico para la organización será limitado. - **Describa cómo y cuándo se produce la imparcialidad y cómo/qué sesgos se han tenido en cuenta.** Las organizaciones y los científicos de datos responsables invierten cantidades extraordinarias de tiempo y recursos en deliberar sobre qué sesgos pueden existir en los datos, cómo se gestionan y qué podrían amplificarse o mitigarse mediante la selección de algoritmos. Estos sesgos pueden afectar a la percepción de imparcialidad de los modelos de IA, por lo que hay que considerarlos detenidamente desde el principio. - **Proporcione mecanismos de recurso.** Todas las organizaciones que despliegan la IA deberían poder explicar por qué y en qué medida la solución es mejor que la que ya existe. Esto establece lo que deben esperar las personas sometidas a la IA. Cuando el sistema de IA no cumple con las expectativas de los usuarios finales, necesitan disponer de recursos inmediatos y de fácil acceso; las organizaciones deberían considerar formas de recurrir a un ingeniero responsable (o equipo propietario del producto), a la gobernanza interna (como un comité de ética o de IA) y a la gobernanza externa (como un regulador). La forma en que las organizaciones elijan abordar los prejuicios, la equidad, la gobernanza y el recurso a la IA sin duda variará, pero la necesidad de crear una gobernanza sólida no hará más que aumentar para todos. Los que comiencen pronto disfrutarán de las ventajas del mercado tanto en el contexto B2B como en el B2C. Los rezagados pueden verse excluidos: por la competencia que gestionan sus riesgos digitales y por los consumidores que buscan equidad y responsabilidad en las tecnologías que eligen utilizar.