Cómo superar la desconfianza de los C-Suite hacia la IA

Cómo superar la desconfianza de los C-Suite hacia la IA

Las decisiones basadas en datos de la IA casi siempre se basan en probabilidades (probabilísticas frente a deterministas). Debido a esto, siempre hay cierto grado de incertidumbre cuando la IA toma una decisión. Tiene que haber un grado asociado de confianza o calificación en la confiabilidad de los resultados. Es por esta razón que la mayoría de los sistemas no pueden, no lo harán ni deberían automatizarse. Los seres humanos deben estar en el circuito de decisiones en un futuro próximo.

A pesar del aumento de las inversiones en inteligencia artificial (IA) por parte de las empresas actuales, la confianza en los conocimientos entregados por la IA puede ser impredecible para los directivos. ¿Los ejecutivos simplemente se resisten a una tecnología nueva, desconocida y aún no probada, o su vacilación se basa en algo más profundo? Los ejecutivos se han resistido durante mucho tiempo al análisis de datos para la toma de decisiones de mayor nivel, y siempre han preferido confiar en la toma de decisiones a nivel interno basada en la experiencia de campo para las decisiones asistidas por IA.

La IA se ha adoptado ampliamente para la toma de decisiones tácticas de bajo nivel en muchos sectores: la calificación crediticia, las recomendaciones de ventas adicionales, los chatbots o la gestión del rendimiento de las máquinas son ejemplos en los que se está implementando con éxito. Sin embargo, su valentía aún no se ha demostrado para decisiones estratégicas de alto nivel, como la refundición de las líneas de productos, el cambio de las estrategias corporativas, la reasignación de los recursos humanos entre las funciones o el establecimiento de relaciones con nuevos socios.

Ya sea que se trate de inteligencia artificial o análisis de alto nivel, los líderes empresariales aún no están preparados para apostar su negocio por completo en las decisiones tomadas por máquina de una manera profunda. Un examen de las actividades de IA entre las organizaciones financieras y minoristas por parte de Amit Joshi y Michael Wade de la Escuela de Negocios IMD en Suiza, considera que «la IA se utiliza principalmente con fines tácticos más que estratégicos; de hecho, es raro encontrar una visión estratégica de IA cohesiva a largo plazo».

Más de dos de cada tres ejecutivos que respondieron a una encuesta de Deloitte, el 67%, dicen que «no se sienten cómodos» con el acceso o el uso de datos de sistemas analíticos avanzados. En empresas con una sólida cultura impulsada por los datos, El 37% de los encuestados aún expresa malestar. Del mismo modo, el 67% de los CEO en una encuesta similar de KPMG indican que a menudo prefieren tomar decisiones basadas en su propia intuición y experiencia sobre los conocimientos generados a través del análisis de datos. El estudio confirma que muchos ejecutivos carecen de un alto nivel de confianza en los datos, el análisis y la IA de su organización, con incertidumbre sobre quién es responsable de los errores y el uso indebido. Los científicos y analistas de datos también ven esta reticencia entre los ejecutivos: una encuesta reciente de SAS encuentra que el 42% de los científicos de datos dicen que los responsables de la toma de decisiones empresariales no utilizan sus resultados.

¿Cuándo estarán preparados los ejecutivos para llevar la IA al siguiente paso y confiarán en ella lo suficiente como para actuar en base a recomendaciones más estratégicas que afecten a su negocio? Hay muchos desafíos, pero hay cuatro acciones que se pueden tomar para aumentar la confianza de los ejecutivos en la toma de decisiones asistidas por la IA:

  1. Cree modelos de IA fiables que ofrezcan información y recomendaciones coherentes
  2. Evite los sesgos de datos que sesgan las recomendaciones de la IA
  3. Asegúrese de que la IA proporciona decisiones éticas y morales
  4. Ser capaz de explicar las decisiones tomadas por la IA en lugar de una situación de caja negra

Cree modelos confiables

Las dudas de los ejecutivos pueden deberse a experiencias negativas, como un sistema de IA que arroja resultados de ventas engañosos. Casi todos los proyectos de IA fallidos tienen un denominador común: la falta de calidad de los datos. En el antiguo modelo empresarial, predominaban los datos estructurados, lo que clasificaba los datos a medida que llegaban de la fuente y facilitaba relativamente su uso inmediato.

Si bien la IA puede utilizar datos estructurados de calidad, también utiliza grandes cantidades de datos no estructurados para crear modelos de aprendizaje automático (ML) y aprendizaje profundo (DL). Que los datos no estructurados, si bien son fáciles de recopilar en su formato sin procesar, son inutilizables a menos que se clasifiquen, etiqueten y limpien correctamente (videos, imágenes, imágenes, audio, texto y registros), todos deben clasificarse y etiquetarse para que los sistemas de IA creen y entrenen modelos antes de que los modelos puedan implementarse en la realidad mundo. Como resultado, los datos introducidos en los sistemas de IA pueden estar desactualizados, no ser relevantes, ser redundantes, limitados o inexactos. Los datos parciales introducidos en los modelos de IA y aprendizaje automático solo proporcionarán una visión parcial de la empresa. Los modelos de IA pueden construirse para reflejar la forma en que siempre se han hecho negocios, sin la capacidad de adaptarse a las nuevas oportunidades o realidades, como las que vimos con las interrupciones en las cadenas de suministro causadas por los efectos de una pandemia mundial. Esto significa que los datos deben alimentarse en tiempo real para crear o cambiar modelos en tiempo real.

No es sorprendente que muchos científicos de datos gasten la mitad de su tiempo en preparación de datos, que sigue siendo una tarea importante en la creación de modelos de IA confiables que puedan ofrecer resultados adecuados. Para ganar la confianza de los ejecutivos, el contexto y la confiabilidad son clave. Hay muchas herramientas de IA que están disponibles para ayudar en la preparación de datos: desde datos sintéticos hasta la desviación de datos y la limpieza de datos, las organizaciones deben considerar el uso de algunas de estas herramientas de IA para proporcionar los datos correctos en el momento adecuado para crear modelos de IA confiables.

Evite los sesgos de datos

Las dudas de los ejecutivos pueden basarse en la preocupación continua y justificable de que los resultados de la IA estén provocando discriminación dentro de sus organizaciones o afecten a los clientes. Del mismo modo, el sesgo inherente de la IA puede estar dirigiendo las decisiones corporativas en la dirección Si no se tiene el cuidado adecuado para limpiar los datos de cualquier sesgo, los modelos de IA resultantes siempre estarán sesgados, lo que resultará en una situación de «basura dentro, basura fuera». Si un modelo de IA se entrena utilizando datos sesgados, sesgará el modelo y producir recomendaciones sesgadas.

Los modelos y las decisiones solo pueden ser tan buenos como la falta de sesgo en los datos. Los datos incorrectos, a sabiendas o sin saberlo, pueden contener información de sesgo implícita, como sesgos raciales, de género, de origen, políticos, sociales u otros prejuicios ideológicos. Además, otras formas de sesgo que son perjudiciales para la empresa también pueden ser inherentes. Hay alrededor de 175 identificados prejuicios humanos que necesitan atención. Esto debe abordarse mediante el análisis de los datos entrantes en busca de sesgos y otros rasgos negativos. Como se mencionó anteriormente, los equipos de IA dedican una cantidad desmesurada de tiempo a preparar los formatos y la calidad de los datos, pero poco tiempo a eliminar los datos sesgados.

Los datos utilizados en la toma de decisiones de alto nivel deben examinarse exhaustivamente para garantizar a los ejecutivos que están probados, autorizados, autenticados y provienen de fuentes confiables. Debe limpiarse de las prácticas discriminatorias conocidas que pueden sesgar los algoritmos.

Si los datos se extraen de fuentes cuestionables o no examinadas, deben eliminarse por completo o deben recibir puntuaciones de confianza más bajas. Además, al controlar la precisión de la clasificación, la discriminación se puede reducir en gran medida con un coste incremental mínimo. Esta optimización del preprocesamiento de datos debe concentrarse en controlar la discriminación, limitar la distorsión en los conjuntos de datos y preservar la utilidad.

A menudo se supone, erróneamente, que los modelos matemáticos de la IA pueden filtrar el sesgo humano. El riesgo es que tales modelos, si se ejecutan sin control, puedan provocar sesgos imprevistos adicionales, nuevamente, debido a datos entrantes limitados o sesgados.

Tomar decisiones éticas y morales

Las dudas de los ejecutivos pueden reflejar el hecho de que las empresas están bajo presión como nunca antes para garantizar que sus empresas operen moral y éticamente, y las decisiones asistidas por la IA también deben reflejar valores éticos y morales. En parte porque quieren aparecer como una empresa con valores éticos y morales y operar con integridad, y en parte debido a las responsabilidades legales que pueden surgir de la toma de decisiones equivocadas que pueden impugnarse en los tribunales, especialmente dado que si la decisión se tomó por IA o asistió a la IA, irá mediante una capa adicional de escrutinio.

Hay un trabajo continuo en las instituciones de investigación y educación para aplicar los valores humanos a los sistemas de IA, convirtiendo estos valores en términos de ingeniería que las máquinas puedan entender. Por ejemplo, Stuart Russell, profesor de ciencias de la computación en la Universidad de California en Berkeley, fue pionero en una idea útil conocida como el principio de alineación de valores que esencialmente «recompensa» a los sistemas de IA por un comportamiento más aceptable. Se puede entrenar a los sistemas de IA o a los robots para que lean historias, aprendan secuencias aceptables de eventos de esas historias y reflejen mejor las formas exitosas de comportarse.

Es fundamental que trabajos como el realizado por Russell se importen al sector empresarial, ya que la IA tiene un enorme potencial para sesgar la toma de decisiones que afectan vidas y carreras. Las empresas deben asegurarse de que haya suficientes controles y equilibrios para garantizar que las decisiones asistidas por IA sean éticas y morales.

Ser capaz de explicar las decisiones de IA

Los ejecutivos podrían ser cautelosos a la hora de absorber las decisiones de IA si hay falta de transparencia. La mayoría de las decisiones de IA no tienen una capacidad de explicación incorporada. Cuando se toma una decisión y se toma una acción que arriesga millones de dólares para una empresa, o que implica la vida/el trabajo de las personas, decir que la IA tomó esta decisión para que actuemos en consecuencia no es suficiente.

Los resultados producidos por la IA y las acciones tomadas en base a eso no pueden ser opacos. Hasta hace poco, la mayoría de los sistemas se han programado para reconocer y tratar explícitamente situaciones predeterminadas. Sin embargo, los sistemas tradicionales, no cognitivos, chocan contra una pared de ladrillos cuando se encuentran con escenarios para los que no estaban programados. Los sistemas de IA, por otro lado, tienen un cierto grado de capacidad de pensamiento crítico incorporada, con la intención de imitar más de cerca el cerebro humano. A medida que surgen nuevos escenarios, estos sistemas pueden aprender, comprender, analizar y actuar sobre la situación sin la necesidad de programación adicional.

Los datos utilizados para entrenar algoritmos deben mantenerse de manera responsable, a través del almacenamiento seguro, la validación, la auditabilidad y el cifrado. Los métodos emergentes, como la cadena de bloques u otras tecnologías de registro distribuido, también proporcionan un medio para el almacenamiento inmutable y auditable. Además, es necesario establecer un marco de gobernanza de terceros para garantizar que las decisiones de IA no solo sean explicables, sino que también se basen en hechos y datos. Al final del día, debería ser posible demostrar que si un experto humano, dado el mismo conjunto de datos, hubiera obtenido los mismos resultados, y la IA no manipulara los resultados.

Las decisiones basadas en datos de la IA casi siempre se basan en probabilidades (probabilísticas frente a deterministas). Debido a esto, siempre hay cierto grado de incertidumbre cuando la IA toma una decisión. Tiene que haber un grado asociado de confianza o calificación en la confiabilidad de los resultados. Es por esta razón que la mayoría de los sistemas no pueden, no lo harán ni deberían automatizarse. Los seres humanos deben estar en el circuito de decisiones en un futuro próximo. Esto dificulta la dependencia de las decisiones basadas en máquinas cuando se trata de industrias sensibles como la atención médica, donde el 98% de probabilidad de tomar una decisión no es lo suficientemente buena.

Las cosas se vuelven complejas e impredecibles a medida que los sistemas interactúan entre sí. «Estamos empezando a aceptar que la verdadera complejidad del mundo supera con creces las leyes y los modelos que diseñamos para explicarlo», según David Weinberger, Ph.D., afiliado al Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard. No importa qué tan sofisticada sea la toma de decisiones, el pensamiento crítico de los humanos sigue siendo necesario para dirigir las empresas actuales. Los ejecutivos aún deben poder anular o cuestionar los resultados basados en IA, especialmente dentro de un proceso opaco.

Tareas para aumentar la confianza del ejecutivo

Tenga en cuenta los siguientes cursos de acción cuando busque aumentar los niveles de comodidad de los ejecutivos en la IA:

  • Promueva la propiedad y la responsabilidad de la IA más allá del departamento de IT, de cualquier persona que se dedique al proceso. Se requerirá un cambio cultural para impulsar las decisiones éticas para sobrevivir en la economía de los datos.
  • Reconozca que la IA (en la mayoría de las situaciones) es simplemente un código que toma decisiones basadas en datos y patrones anteriores con algunas estimaciones del futuro. Todos los líderes empresariales, así como los empleados que trabajan con ellos, siguen necesitando habilidades de pensamiento crítico para desafiar la producción de IA.
  • Dirija la IA a las áreas en las que tiene más impacto y refínelas primero, lo que agregará el mayor valor empresarial.
  • Investigue y promueva las tecnologías más impactantes.
  • Garantice la equidad en la IA a través de una mayor transparencia y la máxima observabilidad de la cadena de entrega de decisiones.
  • Fomentar una mayor conciencia y capacitación para una IA justa y procesable en todos los niveles, y vincular los incentivos para una adopción exitosa de la IA.
  • Revise o audite los resultados de la IA de forma regular y sistemática.
  • Asume la responsabilidad y las decisiones propias, y corrija el rumbo si alguna vez se toma una decisión incorrecta, sin culpar a la IA.

Inevitablemente, se verá más toma de decisiones asistida por IA en la suite ejecutiva con fines estratégicos. Por ahora, la IA ayudará a los humanos en la toma de decisiones para realizar inteligencia aumentada, en lugar de una entrega de información correcta al estilo unicornio con solo presionar un botón. Garantizar que el resultado de estas decisiones asistidas por IA se base en conocimientos fiables, imparciales, explicables, éticos, morales y transparentes ayudará a infundir la confianza de los líderes empresariales en las decisiones basadas en la IA para el presente y en los años venideros.

Andy Thurai Andy Thurai Joe McKendrick