Superar la desconfianza de la alta dirección hacia la IA

Las decisiones de la IA basadas en datos casi siempre se basan en probabilidades (probabilísticas contra deterministas). Por eso, siempre hay cierto grado de incertidumbre cuando la IA toma una decisión. Tiene que haber un grado de confianza o puntuación asociado a la fiabilidad de los resultados. Es por esta razón que la mayoría de los sistemas no pueden, no deben ni deben automatizarse. Los seres humanos tienen que estar en el circuito de decisiones en un futuro próximo.

••• A pesar del aumento de las inversiones en inteligencia artificial (IA) por parte de las empresas actuales, la confianza en la información que ofrece la IA puede ser un éxito o un error para la alta dirección. ¿Los ejecutivos simplemente se resisten a una tecnología nueva, desconocida y aún no probada, o sus dudas se basan en algo más profundo? Los ejecutivos se han resistido durante mucho tiempo al análisis de datos para la toma de decisiones de alto nivel y siempre han preferido confiar en la toma de decisiones instintivas basada en la experiencia de campo en lugar de en las decisiones asistidas por la IA. La IA se ha adoptado ampliamente para la toma de decisiones tácticas y de nivel inferior en muchos sectores: la calificación crediticia, las recomendaciones de aumento de ventas, los chatbots o la gestión del rendimiento de las máquinas son ejemplos de los que se está implementando con éxito. Sin embargo, aún no se ha demostrado su valía para las decisiones estratégicas de alto nivel, como la reformulación de las líneas de productos, el cambio de las estrategias corporativas, la reasignación de los recursos humanos entre las funciones o el establecimiento de relaciones con nuevos socios. Ya se trate de la IA o de la analítica de alto nivel, los líderes empresariales aún no están preparados para apostar su negocio por completo en las decisiones tomadas por las máquinas de una manera profunda. Un examen de las actividades de IA entre las organizaciones financieras y minoristas realizado por[Amit Joshi y Michael Wade de la Escuela de Negocios del IMD](https://sloanreview.mit.edu/article/the-building-blocks-of-an-ai-strategy/) en Suiza descubre que «la IA se utiliza principalmente con fines tácticos más que estratégicos; de hecho, es poco frecuente encontrar una visión estratégica de la IA coherente a largo plazo». Más de dos de cada tres ejecutivos que respondieron a una encuesta de Deloitte, el 67%, afirman que «no se sienten cómodos» accediendo o utilizando los datos de sistemas analíticos avanzados. En empresas con una sólida cultura basada en los datos,[El 37% de los encuestados sigue expresando su malestar](https://www2.deloitte.com/us/en/insights/topics/analytics/insight-driven-organization.html). Del mismo modo, el 67% de los directores ejecutivos en una encuesta similar de KPMG indican que a menudo [prefieren tomar decisiones en función de su propia intuición](http://kpmg.com/guardiansoftrust) y la experiencia en lugar de la información generada a través del análisis de datos. El estudio confirma que muchos ejecutivos carecen de un alto nivel de confianza en los datos, los análisis y la IA de su organización, y no están seguros de quién es responsable de los errores y el uso indebido. Los científicos y analistas de datos también ven esta reticencia entre los ejecutivos: un[encuesta reciente de SAS](https://www.sas.com/content/sascom/en_us/offers/22q1/accelerated-digital-transformation-datascientist-ebook.html) descubre que el 42% de los científicos de datos afirman que los responsables de la toma de decisiones empresariales no utilizan sus resultados. ¿Cuándo estarán preparados los ejecutivos para llevar la IA al siguiente paso y confiarán en ella lo suficiente como para seguir recomendaciones más estratégicas que afecten a su negocio? Hay muchos desafíos, pero se pueden tomar cuatro medidas para aumentar la confianza de los ejecutivos a la hora de tomar decisiones con la ayuda de la IA: 1. Cree modelos de IA fiables que ofrezcan información y recomendaciones coherentes 2. Evite los sesgos de datos que sesgan las recomendaciones de la IA 3. Asegúrese de que la IA tome decisiones éticas y morales 4. Ser capaz de explicar las decisiones que toma la IA en lugar de una situación de caja negra ## Cree modelos fiables Las dudas de los ejecutivos pueden deberse a experiencias negativas, como un sistema de IA que arroja resultados de ventas engañosos. Casi todos los proyectos de IA fallidos tienen un denominador común: la falta de calidad de los datos. En el antiguo modelo empresarial, predominaban los datos estructurados, que clasificaban los datos a medida que llegaban de la fuente y hacían que fuera relativamente fácil utilizarlos de forma inmediata. Si bien la IA puede utilizar datos estructurados de calidad, también utiliza enormes cantidades de datos no estructurados para crear modelos de aprendizaje automático (ML) y aprendizaje profundo (DL). Que los datos no estructurados, si bien son fáciles de recopilar en su formato sin procesar, no se pueden utilizar a menos que se clasifiquen, etiqueten y limpien correctamente (vídeos, imágenes, imágenes, audio, texto y registros), todos deben clasificarse y etiquetarse para que los sistemas de IA puedan crear y entrenar modelos antes de que los modelos puedan desplegarse en el mundo real. Como resultado, los datos que se introducen en los sistemas de IA pueden estar anticuados, no ser relevantes, redundantes, limitados o inexactos. Los datos parciales incluidos en los modelos de IA y aprendizaje automático solo proporcionarán una visión parcial de la empresa. Los modelos de IA pueden crearse para reflejar la forma en que siempre se han hecho negocios, sin la capacidad de adaptarse a las nuevas oportunidades o realidades, como vimos con las interrupciones en las cadenas de suministro causadas por los efectos de una pandemia mundial. Esto significa que los datos deben alimentarse en tiempo real para crear o cambiar los modelos en tiempo real. No es sorprendente que muchos científicos de datos gasten[la mitad de su tiempo preparando datos](https://www.anaconda.com/state-of-data-science-2020), que sigue siendo una tarea importante para crear modelos de IA fiables que puedan ofrecer los resultados adecuados. Para ganarse la confianza de los ejecutivos, el contexto y la fiabilidad son fundamentales. Hay muchas herramientas de IA disponibles para ayudar a preparar los datos, desde datos sintéticos hasta la eliminación de datos y la limpieza de datos, las organizaciones deberían considerar la posibilidad de utilizar algunas de estas herramientas de IA para proporcionar los datos correctos en el momento adecuado y crear modelos de IA fiables. ## Evite sesgos de datos Las dudas de los ejecutivos pueden basarse en la preocupación continua y justificada de que los resultados de la IA provoquen discriminación en sus organizaciones o afecten a los clientes. Del mismo modo, el sesgo inherente a la IA puede estar llevando las decisiones corporativas en la dirección equivocada. Si no se toman las medidas adecuadas para limpiar los datos de cualquier sesgo, los modelos de IA resultantes siempre estarán sesgados, lo que se traducirá en una situación de «basura entra, basura sale». Si un modelo de IA se entrena con datos sesgados,[sesgará el modelo](https://ieeexplore.ieee.org/document/7605524%0d) y producir recomendaciones sesgadas. Los modelos y las decisiones solo pueden ser buenos si no hay sesgos en los datos. Los datos incorrectos, a sabiendas o sin saberlo, pueden contener información sobre sesgos implícitos, como sesgos raciales, de género, origen, políticos, sociales u otros sesgos ideológicos. Además, también pueden ser inherentes otras formas de sesgo que son perjudiciales para la empresa. Hay unos 175 identificados[sesgos humanos que necesitan cuidados](https://betterhumans.pub/cognitive-bias-cheat-sheet-55a472476b18). Esto debe abordarse mediante el análisis de los datos entrantes para detectar sesgos y [otros rasgos negativos](https://papers.nips.cc/paper/2017/file/9a49a25d845a483fae4be7e341368e36-Paper.pdf). Como se ha mencionado anteriormente, los equipos de IA dedican una cantidad excesiva de tiempo a preparar los formatos y la calidad de los datos, pero poco tiempo a eliminar los datos sesgados. Los datos utilizados en la toma de decisiones de alto nivel deben examinarse minuciosamente para garantizar a los ejecutivos que están comprobados, autorizados, autenticados y provienen de fuentes confiables. Hay que limpiarlo de las prácticas discriminatorias conocidas que pueden sesgar los algoritmos. Si los datos provienen de fuentes cuestionables o no examinadas, deberían eliminarse por completo o se les deberían dar puntuaciones de confianza más bajas. Además, al controlar la precisión de la clasificación, la discriminación se puede reducir considerablemente con un coste incremental mínimo. Esta optimización del preprocesamiento de los datos debería centrarse en controlar la discriminación, limitar la distorsión en los conjuntos de datos y preservar la utilidad. A menudo se supone —erróneamente— que los modelos matemáticos de la IA pueden eventualmente filtrar los sesgos humanos. El riesgo es que estos modelos, si no se controlan, puedan provocar sesgos imprevistos adicionales, una vez más, debido a la cantidad limitada o sesgada de los datos entrantes. ## Tome decisiones éticas y morales La vacilación de los ejecutivos puede reflejar el hecho de que las empresas están bajo presión como nunca antes para garantizar que sus negocios funcionan de manera moral y ética, y las decisiones respaldadas por la IA también deben reflejar los valores éticos y morales. En parte porque quieren presentarse como una empresa con valores éticos y morales y que funcione con integridad, y en parte por las responsabilidades legales que pueden derivarse de la toma de decisiones equivocadas que pueden impugnarse en los tribunales, especialmente dado que si la decisión la tomara la IA o la hubiera asistido, pasaría por un nivel adicional de escrutinio. Las instituciones educativas y de investigación están trabajando en curso para aplicar los valores humanos a los sistemas de IA, convirtiendo estos valores en términos de ingeniería que las máquinas puedan entender. Por ejemplo, Stuart Russell, profesor de informática en la Universidad de California en Berkeley, fue pionero en una idea útil conocida como el principio de alineación de valores que, básicamente, «recompensa» a los sistemas de IA por un comportamiento más aceptable. Se puede entrenar a los sistemas de IA o a los robots para que lean historias, aprendan secuencias aceptables de eventos a partir de esas historias y reflejen mejor las formas exitosas de comportarse. Es fundamental que obras como la realizada por Russell se importen al sector empresarial, ya que la IA tiene un enorme potencial de sesgar la toma de decisiones que afecta a las vidas y las carreras. Las empresas deben asegurarse de que hay suficientes frenos y contrapesos para garantizar que las decisiones respaldadas por la IA sean éticas y morales. ## Ser capaz de explicar las decisiones de la IA Los ejecutivos podrían mostrarse cautelosos a la hora de absorber las decisiones de la IA si hay falta de transparencia. La mayoría de las decisiones de IA no tienen una explicabilidad integrada. Cuando se toma una decisión y se toma una medida que pone en riesgo millones de dólares para una empresa o que implica la vida o el trabajo de las personas, decir que la IA tomó esta decisión y que estamos actuando en consecuencia no basta. Los resultados obtenidos por la IA y las medidas que se toman en función de ellos no pueden ser opacos. Hasta hace poco, la mayoría de los sistemas estaban programados para reconocer y tratar situaciones predeterminadas de forma explícita. Sin embargo, los sistemas no cognitivos tradicionales chocan contra una pared de ladrillos cuando se encuentran con escenarios para los que no estaban programados. Los sistemas de IA, por otro lado, tienen algún grado de capacidad de pensamiento crítico incorporado, destinado a imitar más de cerca el cerebro humano. A medida que surjan nuevos escenarios, estos sistemas pueden aprender, entender, analizar y actuar en función de la situación sin necesidad de programación adicional. Los datos utilizados para entrenar los algoritmos deben mantenerse de forma responsable, mediante el almacenamiento seguro, la validación, la auditabilidad y el cifrado. Los métodos emergentes, como la cadena de bloques u otras tecnologías de registro distribuido, también proporcionan un medio de almacenamiento inmutable y auditable. Además, es necesario establecer un marco de gobierno de terceros para garantizar que las decisiones sobre la IA no solo sean explicables sino que también se basen en hechos y datos. Al final del día, debería ser posible demostrar que si un experto humano, con el mismo conjunto de datos, hubiera obtenido los mismos resultados y la IA no manipulara los resultados. Las decisiones de la IA basadas en datos casi siempre se basan en probabilidades (probabilísticas contra deterministas). Por eso, siempre hay cierto grado de incertidumbre cuando la IA toma una decisión. Tiene que haber un grado de confianza o puntuación asociado a la fiabilidad de los resultados. Es por esta razón que la mayoría de los sistemas no pueden, no deben ni deben automatizarse. Los seres humanos tienen que estar en el circuito de decisiones en un futuro próximo. Esto hace que sea más difícil confiar en las decisiones basadas en máquinas cuando se trata de sectores sensibles, como la sanidad, donde una probabilidad del 98% de que se tome una decisión no es suficiente. Las cosas se vuelven complejas e impredecibles a medida que los sistemas interactúan entre sí. «Empezamos a aceptar que la verdadera complejidad del mundo supera con creces las leyes y los modelos que diseñamos para explicarla», según el Dr. David Weinberger, afiliado al Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard. No importa lo sofisticada que se vuelva la toma de decisiones, el pensamiento crítico de los humanos sigue siendo necesario para dirigir las empresas actuales. Los ejecutivos aún necesitan poder anular o cuestionar la producción basada en la IA, especialmente en un proceso opaco. ## Tareas para aumentar la confianza de los ejecutivos Tenga en cuenta las siguientes líneas de acción cuando desee aumentar los niveles de comodidad de los ejecutivos en la IA: - Promueva la propiedad y la responsabilidad de la IA más allá del departamento de TI, de parte de cualquiera que participe en el proceso. Será necesario un cambio cultural para impulsar las decisiones éticas y sobrevivir en la economía de los datos. - Tenga en cuenta que la IA (en la mayoría de las situaciones) es simplemente un código que toma decisiones en función de datos y patrones anteriores con algunas conjeturas del futuro. Todos los líderes empresariales, así como los empleados que trabajan con ellos, aún necesitan habilidades de pensamiento crítico para desafiar los resultados de la IA. - Dirija la IA a las áreas en las que tenga más impacto y refinelas primero, lo que añadirá el mayor valor empresarial. - Investigue e impulse las tecnologías más impactantes. - Garantice la imparcialidad de la IA mediante una mayor transparencia y la máxima observabilidad de la cadena de toma de decisiones. - Fomentar una mayor conciencia y formación para lograr una IA justa y procesable en todos los niveles y vincular los incentivos a la adopción exitosa de la IA. - Revise o audite los resultados de la IA de forma regular y sistemática. - Asuma la responsabilidad y tome sus propias decisiones y, por supuesto, corrija si alguna vez se toma una decisión equivocada, sin culpar a la IA. Inevitablemente, se incluirá más toma de decisiones asistida por la IA en la suite ejecutiva con fines estratégicos. Por ahora, la IA ayudará a los humanos a tomar decisiones para utilizar la inteligencia aumentada, en lugar de ofrecer información correcta al estilo de un unicornio con solo pulsar un botón. Garantizar que el resultado de estas decisiones asistidas por la IA se base en información fiable, imparcial, explicable, ética, moral y transparente ayudará a inculcar la confianza de los líderes empresariales en las decisiones basadas en la IA ahora y en los próximos años.