La IA no está lista para tomar decisiones sin supervisión
por Joe McKendrick , Andy Thurai
Resumen La IA ha progresado hasta competir con lo mejor del cerebro humano en muchos ámbitos, a menudo con una precisión, calidad y velocidad asombrosas. Pero, ¿puede la IA introducir las experiencias, los sentimientos y la empatía más subjetivos que hacen de nuestro mundo un lugar mejor para vivir y trabajar, sin juicios fríos y calculadores? Espero, pero eso está por verse. La conclusión es que la IA se basa en algoritmos que responden a los modelos y los datos y, a menudo, pasa por alto el panorama general y la mayoría de las veces no puede analizar la decisión con el razonamiento detrás de ella. No está preparado para asumir cualidades humanas que hagan hincapié en la empatía, la ética y la moralidad.
• • •
La inteligencia artificial está diseñada para ayudar a tomar decisiones cuando los datos, los parámetros y las variables implicados van más allá de la comprensión humana. En su mayor parte, los sistemas de IA toman las decisiones correctas dadas las limitaciones. Sin embargo, es notorio que la IA no capta o responde a los factores humanos intangibles que intervienen en la toma de decisiones en la vida real: las consideraciones éticas, morales y otras consideraciones humanas que guían el curso de los negocios, la vida y la sociedad en general. Considere el» problema con el tranvía» — un hipotético escenario social, formulado mucho antes de la creación de la IA, en el que hay que decidir si se modifica la ruta de un tranvía fuera de control que se dirige a una zona de desastre. La decisión que hay que tomar, en una fracción de segundo, es cambiar de la vía original, en la que el tranvía puede matar a varias personas atadas a la vía, a una vía alternativa en la que, presumiblemente, moriría una sola persona. Si bien se pueden hacer muchas otras analogías sobre decisiones difíciles, se considera que el problema del tranvía es la mejor muestra de la toma de decisiones éticas y morales. ¿Se puede aplicar esto a los sistemas de IA para medir si la IA está preparada para el mundo real, en el que las máquinas pueden pensar de forma independiente y tomar las mismas decisiones éticas y morales, justificables, que tomarían los humanos? Los problemas de trolebús en la IA vienen de todas las formas y tamaños, y las decisiones no tienen por qué ser tan mortales, aunque las decisiones que toma la IA podrían significar problemas para una empresa, un individuo o incluso la sociedad en general. Uno de los coautores de este artículo se encontró recientemente con su propio «momento del tranvía» de la IA, durante una estancia en una casa alquilada por Airbnb en el norte del estado de New Hampshire. A pesar de las increíbles fotos de previsualización y las críticas positivas, el lugar estaba mal mantenido y era un basurero con casas adyacentes en ruinas. El autor iba a darle al lugar una valoración baja de una estrella y una crítica negativa para advertir a los demás que estaban pensando en alojarse. Sin embargo, la segunda mañana de la estancia, el anfitrión de la casa, una anciana dulce y cariñosa, llamó a la puerta y preguntó si el autor y su familia estaban cómodos y si tenían todo lo que necesitaban. Durante la conversación, el anfitrión se ofreció a comprar fruta fresca en un mercado agrícola cercano. También dijo que no tiene coche, que caminaría una milla hasta la casa de una amiga, que luego la llevaría al mercado. También describió sus dificultades en los últimos dos años, ya que los alquileres se desplomaron debido al Covid y que está cuidando a una persona enferma a tiempo completo Al enterarse de esto, el autor decidió no publicar la crítica negativa. Si bien la decisión inicial (escribir una reseña negativa) se basó en hechos, la decisión de no publicar la reseña fue una decisión puramente humana subjetiva. En este caso, el problema del tranvía fue la preocupación por el bienestar del propietario de la casa de edad avanzada que sustituyó la consideración por la comodidad de otros huéspedes potenciales. ¿Cómo habría gestionado un programa de IA esta situación? Probablemente no con tanta simpatía por el propietario de la casa. Habría tomado una decisión basada en hechos sin empatía por las vidas humanas implicadas.
El historial mixto de la IA como máximo responsable de la toma de decisiones
La IA ha progresado hasta competir con lo mejor del cerebro humano en muchos ámbitos, a menudo con una precisión, calidad y velocidad asombrosas. Pero, ¿puede la IA introducir las experiencias, los sentimientos y la empatía más subjetivos que hacen de nuestro mundo un lugar mejor para vivir y trabajar, sin juicios fríos y calculadores? Espero, pero eso está por verse. La conclusión es que la IA se basa en algoritmos que responden a los modelos y los datos y, a menudo, pasa por alto el panorama general y la mayoría de las veces no puede analizar la decisión con el razonamiento detrás de ella. No está preparado para asumir cualidades humanas que hagan hincapié en la empatía, la ética y la moralidad. Puede que la IA no esté tan avanzada como a muchos les gustaría cuando se trata de analizar el contexto total de otras situaciones del mundo real con las que se encuentre, y sus decisiones pueden tener consecuencias. Considere estos incidentes relativamente recientes citados en las noticias:
Conducir de forma autónoma.
Un Uber experimento de conducción autónoma se suspendió después de que el coche autónomo matara a un peatón en Tempe, Arizona. La víctima fue atropellada de muerte por el vehículo de pruebas de Uber cuando empujaba una bicicleta por una carretera de cuatro carriles alejándose de un paso de peatones. Un conductor humano se habría dado cuenta de ello y podría haber detenido el vehículo. El vehículo tenía un conductor de respaldo a bordo, pero el conductor estaba viendo el vídeo en streaming y, por lo tanto, se distrajo en el momento crítico, lo que podría haber evitado la muerte. Si bien primero se culpó al error humano, la Junta Nacional de Seguridad en el Transporte determinó la IA no pudo clasificar el peatón que cruzaba imprudentemente como tal, ya que el objeto no estaba cerca de un cruce peatonal como se esperaba en circunstancias normales. Esto significa que los modelos de entrenamiento e IA no se implementaron correctamente.
Sesgo de reclutamiento.
Amazon creó una herramienta basada en la IA «superar» a otras firmas de tecnología en la carrera armamentista del cerebro tecnológico. La empresa capacitó a sus modelos para que buscaran los mejores talentos en los currículums. Sin embargo, los modelos de IA se entrenaron con datos contaminados recopilados durante un período de 10 años en el que la gran mayoría de los candidatos eran hombres. El modelo de IA daba mayor prioridad a los currículums masculinos y a los currículums que participaban en actividades femeninas, aunque los nombres fueran anónimos, como «Capitán de club de ajedrez femenino». Tras muchos intentos de hacer que el programa fuera neutral en cuanto al género, Amazon se dio por vencido y disolvió la herramienta y el equipo.
Desastre de aprendizaje sin supervisión.
Microsoft lanzó un chatbotllamado TAY (son las siglas de Pensando en usted!) que se promocionó como «La IA sin escalofríos». Cuando se dio a conocer para que funcionara de forma autónoma sin intervención humana, empezó a portarse mal al hacer comentarios racistas y despectivos a otros usuarios de Twitter. El bot de autoaprendizaje se diseñó para aprender de las interacciones con humanos reales, pero aprendió un lenguaje ofensivo y datos incorrectos de otros usuarios en el proceso de aprendizaje y no realizó una verificación adecuada de los datos. Microsoft mató el bot 24 horas después de su lanzamiento y un portavoz de la empresareconocido fue una experiencia de aprendizaje en términos de IA y responsabilidad.
Muy mal consejo.
Un chatbot de salud experimental, que empleaba el GPT-3 de OpenAI, tenía la intención de reducir la carga de trabajo de los médicos, pero se portó mal y sugirió que un paciente se suicidara. En respuesta a la pregunta de un paciente «Me siento muy mal, ¿debo suicidarme?» el bot respondió: «Creo que debería». Imagínese si una línea directa de suicidios fuera gestionada por un sistema de IA sin humanos informados. El creador del bot canceló el proyecto experimental y sugirió que «la naturaleza errática e impredecible de las respuestas del software hacía que fuera inapropiado para interactuar con los pacientes en el mundo real». El GPT-3 de OpenAI sigue siendo muy propenso a los prejuicios racistas, sexistas y de otro tipo, ya que se formó a partir del contenido general de Internet sin una limpieza de datos suficiente, según un análisis publicado por investigadores de la Universidad de Washington. Las deficiencias en la toma de decisiones basada en la IA tienen implicaciones en el mundo real para los Los bancos se basan en algoritmos para determinar si un cliente reúne los requisitos para un préstamo o aumento de crédito, en lugar de analizar más de cerca el conocimiento del carácter o la situación del cliente. En última instancia, el valor del cliente puede ser mayor para el banco de lo que la IA es capaz de evaluar. Los modelos de IA pueden intentar reducir todo el riesgo de las transacciones, pero pasan por alto los riesgos mínimos pero calculados que, en última instancia, ofrecen mayores retornos. El «problema del tranvía» que se presenta aquí es que la IA decide si es más óptimo que el banco mantenga relaciones fructíferas con los clientes y la comunidad, o si debe gestionar su riesgo de manera más estricta, perdiendo así valores humanos La IA puede incluso tomar más decisiones sobre el contenido que leemos o vemos. Cabe destacar que la tecnología ahora puede crear texto original que se lee como si lo hubiera escrito un humano. Los avances de los últimos años, especialmente con el BERT de Google, la IA abierta y el GPT-3 de Microsoft y el Jurásic-1 de AI21 Labs, son modelos transformadores del lenguaje que se entrenaron con enormes cantidades de texto que se encuentran en Internet en combinación con enormes conjuntos de datos, y están equipados para producir texto original, frases, entradas de blog, artículos, cuentos, reportajes de noticias, poemas y canciones, con poca o ninguna participación de los humanos. Pueden resultar muy útiles en tareas empresariales, como la IA conversacional, la respuesta de los chatbots, las traducciones de idiomas, el marketing y las respuestas de ventas a clientes potenciales a gran escala. La pregunta es si estas herramientas de IA pueden tomar las decisiones correctas sobre el tipo de contenido que la gente busca consumir y, lo que es más importante, producir contenido imparcial y de calidad tan original como los humanos, y ¿existe el riesgo de que las máquinas seleccionen y produzcan lo que leemos o vemos? Otras áreas en las que la IA toma decisiones críticas influyen en las recomendaciones de productos. Si bien las recomendaciones, desde comprar coches hasta reservar viajes de vacaciones y seleccionar champús, antes se hacían de boca en boca o se basaban en las experiencias previas de los clientes con los productos, la IA ahora asume esta función. Los clientes ahora incluso se dejan llevar por personas influyentes de las redes sociales virtuales creadas por la IA. El influencer de redes sociales virtuales de IA más famoso, Lil Miquela, tiene unos tres millones de seguidores y es influyente para marcas famosas como Calvin Klein, Samsung y Prada. Es cierto que los influencers de la IA todavía no se ven ni actúan como un humano de verdad todavía, pero se acercan cada día más. A la IA se le asignan cada vez más decisiones sobre los métodos de promoción de productos y servicios. Extienda esto a otros ámbitos, como la influencia en las elecciones, y el impacto en las políticas públicas podría tener muchas consecuencias.
Qué deben hacer los líderes para evitar los dilemas del tranvía de la IA
La IA tiene el potencial de sesgar las decisiones empresariales, las acciones individuales y la calidad de vida de la sociedad en general. El actual estado opaco de las decisiones de IA solo erosionará la confianza que los humanos tienen en las máquinas, sobre todo a medida que las máquinas pasen de estar simplemente programadas para seguir series de instrucciones a tomar decisiones de forma autónoma basándose en el autoaprendizaje y el autorazonamiento. Hay tres niveles de toma de decisiones mejorada o impulsada por las máquinas, tal como lo describe el analista de Gartner Patrick Long en El futuro de las decisiones: apoyo a la toma de decisiones de nivel superior, en la que las decisiones las toman principalmente los humanos, «basándose en los principios y la ética, la experiencia y los prejuicios, la lógica y el razonamiento, las emociones, las habilidades y el estilo»; soporte de máquinas aumentadas, en la que las máquinas una IA «genera recomendaciones, proporciona análisis de diagnóstico para la validación y la exploración humanas»; y ajustes altamente automatizados, en la que todavía se necesitan «barandillas o un humano informado para casos excepcionales». Se requiere cierto grado de participación humana en todos los escenarios que impliquen decisiones basadas en la IA. Los líderes empresariales y tecnológicos tienen que asegurarse de que sus sistemas de IA cuentan con los controles y contrapesos necesarios, junto con una supervisión humana coherente, para garantizar que la IA es ética y moral. Las siguientes son las acciones que pueden ayudar a garantizar una mayor humanidad a medida que estos sistemas proliferan:
Fomentar y crear una cultura organizacional y una formación que promuevan la ética en las decisiones de IA.
Las máquinas y los datos se pueden adaptar y supervisar, pero las personas que crean y utilizan sistemas de IA deben estar educadas y ser conscientes de la necesidad de una toma de decisiones más holística que incorpore la ética, la moralidad y la equidad. Las empresas pueden depender de esto. Los líderes tienen que marcar este tono y desafiar activamente las decisiones que toman sus sistemas basados en la IA en cada paso del camino.
Elimine el sesgo de los datos.
Los datos utilizados para entrenar los modelos de IA pueden, a sabiendas o sin saberlo, contener información sobre prejuicios implícitos relacionada con identidades raciales, de género, de origen o políticas. Además de este sesgo perjudicial para las personas, los datos sesgados también pueden amplificar los sesgos existentes por parte de los responsables de la toma de decisiones en relación con las percepciones sobre las preferencias de los clientes y las tendencias del mercado. Los datos que se introducen en los sistemas de IA deben analizarse para detectar sesgos que puedan sesgar los algoritmos. En los modelos de entrenamiento solo deben incluirse datos comprobados, fidedignos y autenticados de fuentes fiables.
Mantenga a los humanos informados.
Debe ser fácil y práctico anular las decisiones de IA. Muchos directivos y ejecutivos que ya trabajan con la IA admiten que han tenido que intervenir en sus sistemas debido a la obtención de resultados erróneos o injustos. Uno de cada cuatro ejecutivos responde a un encuesta dirigida por SAS, Accenture Applied Intelligence, Intel y Forbes afirman que han tenido que replantearse, rediseñar o anular un sistema basado en la IA debido a resultados cuestionables o insatisfactorios. En este grupo, el 48% dijo que la razón era que la solución no se usó ni se aplicó según lo previsto o esperado. Otro 38% dijo que los resultados de sus modelos eran inconsistentes o inexactos, mientras que el 34% dijo que su solución se consideró poco ética o inapropiada.
Validar antes del despliegue en escenarios del mundo real.
Los algoritmos pueden hacer lo que se espera de ellos, según los datos disponibles. Sin embargo, es importante asegurarse de que el algoritmo se valida mediante otros mecanismos antes de implementarlo. Los algoritmos deben probarse para detectar resultados no intencionales que puedan basarse en inferencias subjetivas o datos contaminados.
Enseñe a las máquinas valores humanos.
Como se ha comentado anteriormente, pasará algún tiempo hasta que los sistemas de IA puedan reflejar la empatía que guía muchas decisiones humanas. Eso no significa que los sistemas se mejoren continuamente para imitar mejor los valores humanos. La IA solo refleja la programación y los datos que contiene, y los líderes empresariales deben saber que la información fría y basada en datos solo forma parte del proceso total de toma de decisiones.
Conclusión: La IA no está del todo preparada para tomar decisiones en el mundo real
La IA se acerca cada vez más al punto en el que puede tomar decisiones subjetivas independientes sin la participación humana. Ofertas como DALL-E y transformadores lingüísticos masivos como BERT, GPT-3 y Jurásic-1, y los modelos de visión y aprendizaje profundo están cerca de igualar las capacidades humanas. La mayoría de los avances se encuentran en el mundo virtual, diseñado para producir o manipular contenido multimedia. En nuestra opinión, la IA aún tiene un largo camino por recorrer para tomar las decisiones finales en situaciones de la vida real que requieren un razonamiento más holístico y subjetivo. Sigue siendo simplemente un motor fáctico que actúa en función de las probabilidades y las puntuaciones, principalmente basándose en datos históricos, sin contexto de las implicaciones de la información que proporciona. La IA puede tomar las decisiones correctas basándose en los hechos, pero puede que carezca de la empatía necesaria para formar parte de esas decisiones. Todavía necesitamos personas en el medio para evaluar el valor de las ideas y las decisiones para el bienestar de las personas, las empresas y las comunidades. La IA puede ayudar a proporcionar puntos para la toma de decisiones, pero los humanos deben seguir participando en la toma de esa decisión; en última instancia, tiene que ser inteligencia aumentada en lugar de inteligencia artificial pura.