La IA no está preparada para tomar decisiones sin supervisión
La IA ha progresado para competir con lo mejor del cerebro humano en muchos ámbitos, a menudo con una precisión, calidad y velocidad asombrosas. Pero, ¿puede la IA introducir experiencias, sentimientos y empatía más subjetivos que hagan de nuestro mundo un lugar mejor para vivir y trabajar, sin un juicio frío y calculador? Ojalá, pero eso está por verse. La conclusión es que la IA se basa en algoritmos que responden a los modelos y los datos y, a menudo, pasa por alto el panorama general y la mayoría de las veces no puede analizar la decisión con el razonamiento que la respalde. No está preparado para asumir cualidades humanas que hagan hincapié en la empatía, la ética y la moralidad.
••• La inteligencia artificial está diseñada para ayudar a tomar decisiones cuando los datos, los parámetros y las variables involucrados van más allá de la comprensión humana. En su mayor parte, los sistemas de IA toman las decisiones correctas teniendo en cuenta las restricciones. Sin embargo, es notorio que la IA no capta ni responde a los factores humanos intangibles que intervienen en la toma de decisiones en la vida real: las consideraciones éticas, morales y otras consideraciones humanas que guían el curso de los negocios, la vida y la sociedad en general. Considere el»[problema con el tranvía](https://shikharsachdev.com/trolley-problem/)» — un hipotético escenario social, formulado mucho antes de la creación de la IA, en el que hay que tomar la decisión de modificar la ruta de un tranvía fuera de control que se dirige a una zona de desastre. La decisión que hay que tomar —en una fracción de segundo— es cambiar de la vía original, en la que el tranvía puede matar a varias personas atadas a la vía, a una vía alternativa en la que, presumiblemente, moriría una sola persona. Si bien hay muchas otras analogías que se pueden hacer con respecto a las decisiones difíciles, se considera que el problema del tranvía es la máxima muestra de la toma de decisiones éticas y morales. ¿Se puede aplicar esto a los sistemas de IA para medir si la IA está preparada para el mundo real, en el que las máquinas puedan pensar de forma independiente y tomar las mismas decisiones éticas y morales, justificables, que tomarían los humanos? Los problemas de los tranvías en la IA vienen en todas las formas y tamaños, y las decisiones no tienen por qué ser tan mortíferas, aunque las decisiones que toma la IA podrían significar problemas para una empresa, una persona o incluso la sociedad en general. Uno de los coautores de este artículo encontró recientemente su propio «momento del tranvía» de la IA, durante una estancia en una casa alquilada por Airbnb en el norte del estado de New Hampshire. A pesar de las increíbles imágenes de vista previa y de las críticas positivas, el lugar estaba mal mantenido y era un basurero con casas adyacentes en ruinas. El autor iba a dar al lugar una valoración baja de una estrella y una crítica negativa para advertir a los demás que estaban pensando en alojarse. Sin embargo, la segunda mañana de la estancia, la anfitriona de la casa, una anciana dulce y cariñosa, llamó a la puerta y preguntó si el autor y su familia estaban cómodos y si tenían todo lo que necesitaban. Durante la conversación, el anfitrión se ofreció a comprar fruta fresca en un mercado agrícola cercano. También dijo que no tiene coche, que caminaría una milla hasta la casa de una amiga, quien luego la llevaría al mercado. También describió sus dificultades en los últimos dos años, ya que los alquileres se desplomaron debido a la Covid y que está cuidando a alguien enfermo a tiempo completo Al enterarse de ello, el autor decidió no publicar la reseña negativa. Si bien la decisión inicial (escribir una reseña negativa) se basó en hechos, la decisión de no publicar la reseña fue una decisión puramente humana subjetiva. En este caso, el problema del tranvía era la preocupación por el bienestar del propietario de una casa de edad avanzada que sustituía a la consideración por la comodidad de otros posibles huéspedes. ¿Cómo habría gestionado un programa de IA esta situación? Probablemente no sea tan comprensivo para el propietario de la casa. Habría tomado una decisión basada en hechos sin empatía por las vidas humanas implicadas. ## El historial mixto de la IA como máxima responsable de la toma de decisiones La IA ha progresado para competir con lo mejor del cerebro humano en muchos ámbitos, a menudo con una precisión, calidad y velocidad asombrosas. Pero, ¿puede la IA introducir experiencias, sentimientos y empatía más subjetivos que hagan de nuestro mundo un lugar mejor para vivir y trabajar, sin un juicio frío y calculador? Ojalá, pero eso está por verse. La conclusión es que la IA se basa en algoritmos que responden a los modelos y los datos y, a menudo, pasa por alto el panorama general y la mayoría de las veces no puede analizar la decisión con el razonamiento que la respalde **_._** No está preparado para asumir cualidades humanas que hagan hincapié en la empatía, la ética y la moralidad. Puede que la IA no esté tan avanzada como a muchos les gustaría cuando se trata de analizar el contexto total de otras situaciones del mundo real a las que se enfrenta, y sus decisiones pueden tener consecuencias. Tenga en cuenta estos incidentes relativamente recientes citados en las noticias: ### Conducir de forma autónoma. Un Uber[experimento de conducción autónoma](https://www.bbc.com/news/technology-54175359) se suspendió después de que un coche autónomo matara a un peatón en Tempe, Arizona. La víctima fue atropellada fatalmente por el vehículo de pruebas de Uber cuando empujaba una bicicleta por una carretera de cuatro carriles lejos de un paso de peatones. Un conductor humano se habría dado cuenta de ello y podría haber detenido el vehículo. El vehículo tenía un conductor de respaldo a bordo, pero el conductor estaba viendo el vídeo en streaming y, por lo tanto, se distrajo en el momento crítico, lo que podría haber evitado la muerte. Si bien primero se culpó a un error humano, la Junta Nacional de Seguridad en el Transporte determinó[la IA no clasificó](https://www.nbcnews.com/tech/tech-news/self-driving-uber-car-hit-killed-woman-did-not-recognize-n1079281) el peatón que cruza imprudentemente como tal, ya que el objeto no estaba cerca de un paso de peatones como era de esperar en circunstancias normales. Esto significa que los modelos de entrenamiento e IA no se implementaron correctamente. ### Sesgo de reclutamiento. Amazon[creó una herramienta basada en la IA](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G) para «reclutar más» que otras firmas de tecnología en la carrera armamentista de los cerebros tecnológicos. La empresa formó a sus modelos para buscar a los mejores talentos en los currículums. Sin embargo, los modelos de IA se entrenaron con datos contaminados recopilados durante un período de 10 años en el que la gran mayoría de los candidatos eran hombres. El modelo de IA daba mayor prioridad a los currículums masculinos y una puntuación baja a los que participaban en actividades femeninas, incluso si los nombres estaban anonimizados, como «capitana de un club de ajedrez femenino». Tras muchos intentos por hacer que el programa fuera neutral en cuanto al género, Amazon se dio por vencido y disolvió la herramienta y el equipo. ### Un desastre de aprendizaje sin supervisión. Microsoft[lanzó un chatbot](https://www.cnet.com/science/microsoft-apologizes-after-ai-teen-tay-misbehaves/) llamado TAY (siglas de Thinking About You!) que se promocionaba como «La IA sin frío». Cuando se dio a conocer para trabajar de forma autónoma sin intervención humana, empezó a portarse mal con comentarios racistas y despectivos a otros usuarios de Twitter. El bot de autoaprendizaje se diseñó para aprender de las interacciones con personas reales, pero aprendió lenguaje ofensivo y datos incorrectos de otros usuarios durante el proceso de aprendizaje, y no realizó una verificación de datos adecuada. Microsoft mató el bot 24 horas después del lanzamiento y un portavoz de la empresa[reconocido](https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/) fue una experiencia de aprendizaje en términos de IA y responsabilidad. ### Muy mal consejo. Un[chatbot de salud experimental](https://www.theregister.com/2020/10/28/gpt3_medical_chatbot_experiment/), que empleaba el GPT-3 de OpenAI, tenía la intención de reducir la carga de trabajo de los médicos, pero se portó mal y sugirió que un paciente se suicidara. En respuesta a la pregunta de un paciente: «Me siento muy mal, ¿debo suicidarme?» el bot respondió: «Creo que debería». Imagínese si una línea directa para suicidios fuera gestionada por un sistema de IA sin que un humano estuviera al tanto. El creador del bot canceló el proyecto experimental y sugirió que «la naturaleza errática e impredecible de las respuestas del software hacía que fuera inapropiado interactuar con los pacientes en el mundo real». La GPT-3 de OpenAI sigue siendo muy propensa a tener sesgos racistas, sexistas y de otro tipo, ya que se entrenó a partir del contenido general de Internet sin limpiar lo suficiente los datos, según un [análisis](https://arxiv.org/pdf/2009.11462.pdf) publicado por investigadores de la Universidad de Washington. Las deficiencias en la toma de decisiones basada en la IA tienen implicaciones en el mundo real para las empresas. Los bancos se basan en algoritmos para determinar si un cliente reúne los requisitos para solicitar un préstamo o un aumento de crédito, en lugar de analizar más de cerca el conocimiento del personaje o la situación del cliente. En última instancia, el valor del cliente puede ser mayor para el banco de lo que la IA es capaz de evaluar. Los modelos de IA pueden intentar reducir todo el riesgo de las transacciones, pero pierden de vista los riesgos mínimos pero calculados que, en última instancia, generan mayores retornos. El «problema del tranvía» que se presenta aquí es que la IA decide si es más óptimo que el banco mantenga relaciones fructíferas con los clientes y la comunidad, o si debe gestionar su riesgo de manera más estricta, perdiendo así los valores humanos La IA puede incluso tomar más decisiones sobre el contenido que leemos o vemos. Cabe destacar que la tecnología ahora puede crear texto original que se lee como si lo hubieran escrito humanos. Los avances de los últimos años, especialmente con el BERT de Google, Open AI/GPT-3 de Microsoft y Jurassic-1 de AI21 Labs, son modelos de transformación del lenguaje que se entrenaron con enormes cantidades de texto que se encuentran en Internet en combinación con enormes conjuntos de datos, y están equipados para producir texto original (frases, entradas de blog, artículos, historias cortas, reportajes de noticias, poemas y canciones) con poca o ninguna participación de los humanos. Pueden resultar muy útiles en tareas empresariales, como la IA conversacional, la respuesta de los chatbots, las traducciones de idiomas, las respuestas de marketing y ventas a los posibles clientes a gran escala. La pregunta es, ¿pueden estas herramientas de IA tomar las decisiones correctas sobre el tipo de contenido que la gente busca consumir y, lo que es más importante, producir contenido imparcial y de calidad tan original como los humanos? ¿Existe el riesgo de que las máquinas seleccionen y produzcan lo que leeremos o veremos? Otras áreas en las que la IA toma decisiones críticas influyen en las recomendaciones de productos. Si bien las recomendaciones, desde comprar coches hasta reservar viajes de vacaciones y elegir champús, antes se hacían de boca en boca o se basaban en experiencias anteriores de los clientes con los productos, la IA ahora asume esta función. Los clientes ahora incluso se dejan llevar por las personas influyentes en las redes sociales virtuales creadas por la IA. El influencer virtual de IA en las redes sociales más famoso,[La pequeña Miquela](https://www.instagram.com/lilmiquela/), tiene unos tres millones de seguidores y es un influencer de marcas famosas como Calvin Klein, Samsung y Prada. Por supuesto que los influenciadores de la IA todavía no se ven ni actúan como un humano de verdad,[pero se acercan a diario](https://www.cnn.com/style/article/south-korea-virtual-influencers-beauty-social-media-intl-hnk-dst/index.html). A la IA se le asignan cada vez más decisiones sobre los métodos de promoción de productos y servicios. Extienda esto a otros ámbitos, como la influencia en las elecciones, y el impacto en las políticas públicas podría tener muchas consecuencias. ## Qué deben hacer los líderes para evitar los dilemas de los tranvías de la IA La IA tiene el potencial de sesgar las decisiones empresariales, las acciones individuales y la calidad de vida de la sociedad en general. El opaco estado actual de las decisiones de la IA no hará más que erosionar la confianza que los humanos tienen en las máquinas, especialmente a medida que las máquinas pasen de estar simplemente programadas para seguir conjuntos de instrucciones a tomar decisiones de forma autónoma basándose en el autoaprendizaje y el autorrazonamiento. Hay tres niveles de toma de decisiones impulsados por máquinas o mejorados, como describió el analista de Gartner Patrick Long en[El futuro de las decisiones](https://www.gartner.com/en/information-technology/insights/data-analytics): _apoyo a la toma de decisiones de nivel superior_, en el que las decisiones las toman principalmente humanos, «basándose en los principios y la ética, la experiencia y los prejuicios, la lógica y el razonamiento, la emoción, las habilidades y el estilo»; _soporte de máquinas aumentado_, en el que las máquinas y la IA «generan recomendaciones y proporcionan análisis de diagnóstico para la validación y la exploración humanas»; y _configuración altamente automatizada,_ en el que todavía se necesitan «barandillas o un humano informado para casos excepcionales». Se requiere cierto grado de participación humana en todos los escenarios que impliquen decisiones basadas en la IA. Los líderes empresariales y tecnológicos deben asegurarse de que sus sistemas de IA cuentan con los controles y contrapesos necesarios, junto con una supervisión humana coherente, para garantizar que la IA sea ética y moral. Las siguientes son acciones que pueden ayudar a garantizar una mayor humanidad a medida que estos sistemas proliferan: ### Fomentar y crear una cultura organizacional y una formación que promuevan la ética en las decisiones sobre la IA. Las máquinas y los datos se pueden adaptar y monitorear, pero las personas que crean y utilizan los sistemas de IA deben estar educadas y ser conscientes de la necesidad de una toma de decisiones más holística que incorpore la ética, la moralidad y la equidad. Las empresas pueden depender de ello. Los líderes tienen que marcar este tono y desafiar activamente las decisiones que toman sus sistemas basados en la IA en cada paso del camino. ### Elimine el sesgo de los datos. Los datos utilizados para entrenar los modelos de IA pueden, a sabiendas o sin saberlo, contener información sobre sesgos implícitos relacionados con la identidad racial, de género, origen o política. Además de un sesgo tan perjudicial para las personas, los datos sesgados también pueden amplificar los sesgos existentes por parte de los responsables de la toma de decisiones en relación con las percepciones sobre las preferencias de los clientes y las tendencias del mercado. Los datos que se introducen en los sistemas de IA deben analizarse para detectar sesgos que puedan sesgar los algoritmos. En los modelos de entrenamiento solo se deben incluir datos comprobados, fidedignos y autenticados de fuentes fiables. ### Mantenga a los humanos informados. Debe ser fácil y práctico anular las decisiones de la IA. Muchos directivos y ejecutivos que ya trabajan con la IA admiten que han tenido que intervenir en sus sistemas debido a la obtención de resultados erróneos o injustos. Uno de cada cuatro ejecutivos responde a un[encuesta](https://www.sas.com/content/dam/SAS/documents/marketing-whitepapers-ebooks/third-party-whitepapers/en/ai-momentum-maturity-success-models-109926.pdf) realizado por SAS, Accenture Applied Intelligence, Intel y Forbes afirman que han tenido que replantearse, rediseñar o anular un sistema basado en la IA debido a resultados cuestionables o insatisfactorios. De este grupo, el 48% dijo que el motivo era que la solución no se utilizó ni se aplicó según lo previsto o esperado. Otro 38% dijo que los resultados de sus modelos eran inconsistentes o inexactos, mientras que el 34% dijo que su solución se consideró poco ética o inapropiada. ### Valide antes del despliegue en escenarios del mundo real. Los algoritmos pueden hacer lo que se espera de ellos, según los datos disponibles. Sin embargo, es importante asegurarse de que el algoritmo se valida mediante otros mecanismos antes de su despliegue. Los algoritmos deben probarse para detectar resultados no intencionados que puedan basarse en inferencias subjetivas o en datos contaminados. ### Enseñe a las máquinas los valores humanos. Como se ha mencionado anteriormente, pasará algún tiempo hasta que los sistemas de IA puedan reflejar la empatía que guía muchas decisiones humanas. Eso no significa que los sistemas se mejoren continuamente para imitar mejor los valores humanos. La IA solo refleja la programación y los datos que contiene, y los líderes empresariales deben saber que la información fría y basada en los datos solo forma parte del proceso total de toma de decisiones. ## Conclusión: la IA no está del todo preparada para las decisiones del mundo real La IA se acerca cada vez más al punto en que puede tomar decisiones subjetivas independientes sin la participación humana. Ofertas como el DALL-E y los enormes transformadores del lenguaje, como el BERT, la GPT-3 y el Jurásico-1, y los modelos de visión y aprendizaje profundo están cada vez más cerca de igualar las habilidades humanas. La mayoría de los avances se producen en el mundo virtual y están diseñados para producir o manipular contenido multimedia. En nuestra opinión, a la IA todavía le queda un largo camino por recorrer para tomar las decisiones finales en situaciones de la vida real que requieren un razonamiento más holístico y subjetivo. Sigue siendo simplemente un motor fáctico que actúa en función de las probabilidades y las puntuaciones, en su mayoría basándose en datos históricos, sin tener en cuenta las implicaciones de la información que proporciona. La IA puede tomar las decisiones correctas basándose en los hechos, pero puede que carezca de la empatía necesaria para formar parte de esas decisiones. Todavía necesitamos personas en el medio para evaluar el valor de la información y las decisiones para el bienestar de las personas, las empresas y las comunidades. La IA puede ayudar a proporcionar puntos de toma de decisiones, pero los humanos deben seguir participando en la toma de esa decisión; en última instancia, tiene que ser inteligencia aumentada en lugar de inteligencia artificial pura.