Los algoritmos también necesitan gestores

Los algoritmos también necesitan gestores

Resumen.

Los algoritmos son poderosas herramientas predictivas, pero pueden ejecutarse sin efecto cuando no se aplican correctamente. Considere lo que sucede a menudo con los sitios de redes sociales. Hoy en día muchos utilizan algoritmos para decidir qué anuncios y enlaces mostrar a los usuarios. Pero cuando estos algoritmos se centran demasiado en maximizar los clics, los sitios se ahogan rápidamente con contenido de baja calidad. Mientras los clics aumentan, la satisfacción del cliente cae en desplome.

Los fallos, dicen los autores, no están en los algoritmos sino en la forma en que interactuamos con ellos. Los gerentes necesitan reconocer sus dos limitaciones principales: Primero, son completamente literales; los algoritmos hacen exactamente lo que se les dice e ignoran cualquier otra consideración. Mientras que un humano habría entendido que los diseñadores de los sitios querían maximizar la calidad medida por clics, los algoritmos maximizaron los clics a expensas de la calidad. Segundo, los algoritmos son cajas negras. Aunque pueden predecir el futuro con gran precisión, no dirán qué causará un evento o por qué. Te dirán qué artículos de revistas probablemente se compartirán en Twitter sin explicar qué motiva a la gente a tuitear sobre ellos, por ejemplo.

Para evitar errores, debes ser explícito sobre todos tus objetivos, duros y suaves, a la hora de formular tus algoritmos. También debe tener en cuenta las implicaciones a largo plazo de los datos que incorporan los algoritmos para asegurarse de que no se centran con miopía en resultados a corto plazo. Y elija las entradas de datos correctas, asegurándose de recopilar una amplia gama de información de una diversidad de fuentes.


Idea en breve

El problema

Los algoritmos son herramientas esenciales para la planificación, pero pueden desviar fácilmente a los tomadores de decisiones.

Las Causas

Todos los algoritmos comparten dos características: son literales, lo que significa que harán exactamente lo que usted les pida que hagan. Y son cajas negras, lo que significa que no explican por qué ofrecen recomendaciones particulares.

La solución

Al formular algoritmos, sea explícito acerca de todos sus objetivos. Considere las implicaciones a largo plazo de los datos que examina. Y asegúrese de elegir las entradas de datos correctas.

La mayoría de los empleos de los gerentes implican hacer predicciones. Cuando los especialistas de recursos humanos deciden a quién contratar, están prediciendo quién será más efectivo. Cuando los vendedores eligen qué canales de distribución usar, predicen dónde se venderá mejor un producto. Cuando los VC determinan si se va a financiar una start-up, están prediciendo si tendrá éxito. Para hacer estas y una miríada de otras predicciones empresariales, las empresas de hoy están recurriendo cada vez más a algoritmos informáticos, que realizan operaciones analíticas paso a paso a velocidad y escala increíbles.

Los algoritmos hacen que las predicciones sean más precisas, pero también crean riesgos propios, especialmente si no las entendemos. Abundan los ejemplos de alto perfil. Cuando Netflix ejecutó una competencia de un millón de dólares para desarrollar un algoritmo que pudiera identificar qué películas desearían a un usuario determinado, equipos de científicos de datos unieron sus fuerzas y produjeron un ganador. Pero era uno que se aplicaba a los DVD, y a medida que los espectadores de Netflix pasaban a transmitir películas, sus preferencias cambiaron de manera que no coinciden con las predicciones del algoritmo.

Otro ejemplo viene de las redes sociales. Hoy en día muchos sitios implementan algoritmos para decidir qué anuncios y enlaces mostrar a los usuarios. Cuando estos algoritmos se centran demasiado en maximizar los clics de los usuarios, los sitios se ahogan con artículos de baja calidad «ciberanzuelo». Las tasas de clics aumentan, pero la satisfacción general del cliente puede caer en desplome.

Problemas como estos no son inevitables. En nuestro trabajo diseñando e implementando algoritmos e identificando nuevas fuentes de datos con una gama de organizaciones, hemos visto que la fuente de dificultad a menudo no son errores en los algoritmos; son errores en la forma en que interactuamos con ellos. Para evitar errores, los gerentes necesitan comprender qué algoritmos hacen bien: qué preguntas responden y qué preguntas no hacen.

¿Por qué los algoritmos inteligentes nos llevan por mal camino?

Como muestra un creciente cuerpo de evidencias, los algoritmos humanizadores nos hacen más cómodos con ellos. Esto puede ser útil si, por ejemplo, está diseñando una función de llamada automatizada. La voz de una persona real es más probable que una voz electrónica para que la gente escuche. El problema fundamental, sin embargo, es que las personas tratan los algoritmos y las máquinas que los ejecutan de la misma manera que tratarían a un empleado, supervisor o colega. Pero los algoritmos se comportan de manera muy diferente a los humanos, de dos maneras importantes:

Los algoritmos son extremadamente literales.

En la última película de los Vengadores, Tony Stark (también conocido como Iron Man) crea Ultron, un sistema de defensa de inteligencia artificial encargado de proteger la Tierra. Pero Ultron interpreta la tarea literalmente, concluyendo que la mejor manera de salvar a la Tierra es destruir a todos los humanos. En muchos sentidos, Ultron se comporta como un algoritmo típico: hace exactamente lo que se dice e ignora cualquier otra consideración. Nos metemos en problemas cuando no manejamos algoritmos cuidadosamente.

Los sitios de redes sociales que de repente estaban inundados de cebo ciberanzuelo cayeron en una trampa similar. Su objetivo general era claro: Proporcionar contenido que sería más atractivo y atractivo para los usuarios. Al comunicarlo al algoritmo, se les ocurrió un conjunto de instrucciones que parecían un buen proxy: encontrar elementos en los que los usuarios hagan clic más. Y no es un mal proxy: la gente suele hacer clic en el contenido porque les interesa. Pero hacer selecciones únicamente sobre la base de clics llenó rápidamente sitios con material superficial y ofensivo que dañó su reputación. Un humano entendería que los diseñadores de los sitios significaban «Maximizar la calidad medida por clics», no «Maximizar clics incluso a expensas de la calidad». Un algoritmo, por otro lado, entiende solo lo que se dice explícitamente.

Los algoritmos son cajas negras.

En Shakespeare Julio César, un adivino advierte a César que «tenga cuidado con los ides de marzo». La recomendación era perfectamente clara: César es mejor que tenga cuidado. Sin embargo, al mismo tiempo, era completamente incomprensible. ¿Cuidado con qué? ¿Por qué? César, frustrado por el misterioso mensaje, despidió al adivino, declarando: «Es un soñador; dejémoslo». De hecho, los idus de marzo resultaron ser un mal día para el gobernante. El problema era que el adivino proporcionó incompleto información. Y no había ni idea de lo que faltaba o lo importante que era esa información.

Al igual que el adivino de Shakespeare, los algoritmos a menudo pueden predecir el futuro con gran precisión, pero no te dicen qué causará un evento ni por qué. Un algoritmo puede leer a través de cada New York Times y le dirá cuál es la más probable que se comparta en Twitter sin explicar necesariamente por qué se moverá a las personas para que tuiteen al respecto. Un algoritmo puede indicarle qué empleados tienen más probabilidades de tener éxito sin identificar qué atributos son más importantes para el éxito.

Reconocer estas dos limitaciones de algoritmos es el primer paso para gestionarlos mejor. Ahora veamos otros pasos que puede tomar para aprovecharlos con mayor éxito.

Sea explícito acerca de todos sus objetivos

Todo el mundo tiene objetivos y directivas, pero también sabemos que el fin no siempre justifica los medios. Entendemos que hay metas suaves (a menudo tácitas) y compensaciones. Podemos rechazar un poco de ganancia hoy para ganar la reputación mañana. Podemos esforzarnos por lograr la igualdad, incluso si causa dolor organizacional a corto plazo. Los algoritmos, por otro lado, perseguirán un objetivo especificado de una sola mente. La mejor manera de mitigar esto es tener claro todo lo que quieres lograr.

Si le importa un objetivo blando, debe declararlo, definirlo y cuantificar cuánto importa. En la medida en que los objetivos blandos sean difíciles de medir, manténgalos en la cabeza cuando actúe sobre los resultados de un algoritmo.

En Google (que ha financiado algunas de nuestras investigaciones sobre otros temas), surgió un problema de objetivos suaves con un algoritmo que determina qué anuncios mostrar. La profesora de Harvard Latanya Sweeney lo descubrió en un estudio. Ella encontró que cuando escribiste nombres que eran típicamente afroamericanos, como «Latanya Farrell,» en Google, se le mostraron anuncios que ofrecen para investigar posibles registros de arresto, pero no cuando buscaba nombres como «Kristen Hearing». El duro objetivo de Google de maximizar los clics en los anuncios había llevado a una situación en la que sus algoritmos, refinados a través de la retroalimentación con el tiempo, estaban en efecto difamando a las personas con ciertos tipos de nombres. Sucedió porque las personas que buscaban nombres particulares tenían más probabilidades de hacer clic en los registros de arresto, lo que llevó a estos registros a aparecer aún más a menudo, creando un bucle autoreforzado. Este probablemente no fue el resultado previsto, pero sin un objetivo suave en su lugar, no había ningún mecanismo para alejar el algoritmo de él.

Los algoritmos no entienden las compensaciones; persiguen objetivos de una sola mente.

Recientemente vimos la importancia de los objetivos blandos en la acción. Uno de nosotros trabajaba con una ciudad de la Costa Oeste para mejorar la eficiencia de sus inspecciones de restaurantes. Durante décadas, la ciudad los había estado haciendo en su mayoría al azar, pero dando un escrutinio más frecuente a lugares con violaciones anteriores. Sin embargo, elegir qué establecimientos inspeccionar es un trabajo ideal para un algoritmo. Nuestro algoritmo encontró que muchas más variables, no solo violaciones pasadas, eran predictivas. El resultado fue que el departamento de salud podía identificar a los delincuentes probables más fácilmente y luego encontrar violaciones reales con mucho menos inspecciones.

A los funcionarios les encantaba la idea de hacer el proceso más eficiente y deseaban avanzar hacia la implementación. Preguntamos si había alguna pregunta o inquietud. Después de un silencio incómodo, una persona levantó la mano. «No sé cómo sacarlo a la vista», dijo. «Pero hay un tema que deberíamos discutir.» Explicó que en algunos barrios con barrios más estrechos, tendía a haber más violaciones. Estos barrios también eran el hogar de mayores porcentajes de residentes minoritarios con ingresos más bajos. Ella no quería que estos barrios fuera excesivamente blanco por el algoritmo. Ella estaba expresando un objetivo suave relacionado con la equidad. Nuestra solución sencilla fue incorporar ese objetivo en el algoritmo estableciendo un límite máximo para el número de inspecciones dentro de cada área. Esto lograría el objetivo difícil, identificando los restaurantes más propensos a tener problemas, respetando al mismo tiempo el blando, asegurando que los barrios pobres no fueran señalados.

Observe el paso adicional que nos permitió hornear en objetivos suaves: dar a todos la oportunidad de articular cualquier preocupación. Encontramos que las personas a menudo formulan objetivos blandos como preocupaciones, por lo que solicitarlos explícitamente facilita un debate más abierto y fructífero. También es fundamental dar a la gente licencia para ser franco y hacia delante, decir cosas que normalmente no harían. Este enfoque puede plantear una variedad de problemas, pero los que vemos más comúnmente se refieren a la imparcialidad y al manejo de situaciones delicadas.

Con un objetivo central y una lista de preocupaciones en la mano, el diseñador del algoritmo puede entonces construir compensaciones en él. A menudo esto puede significar ampliar el objetivo para incluir múltiples resultados, ponderados por la importancia.

Minimizar la miopía

Una popular compañía de bienes envasados de consumo compraba productos a bajo costo en China y los vendía en los Estados Unidos. Seleccionó estos productos después de ejecutar un algoritmo que pronosticaba cuáles serían los que más venderían. Sin duda, las ventas despegaron y avanzaron bien, hasta varios meses después, cuando los clientes empezaron a devolver los artículos.

Como sucede, la tasa de retorno sorprendentemente alta y constante podría haberse predicho (a pesar de que el algoritmo no lo había previsto). La empresa obviamente se preocupaba por la calidad, pero no había traducido ese interés en un algoritmo que proyectara cuidadosamente la satisfacción del consumidor; en cambio, había pedido al algoritmo que se centrara estrictamente en las ventas. En última instancia, el nuevo enfoque de la compañía era llegar a ser muy bueno para pronosticar no sólo qué tan bien se venderían los productos, sino también la cantidad de personas que disfrutarían y conservarían sus productos. Ahora, la empresa busca ofertas que los clientes podrán exaltar en Amazon y otras plataformas, y la tasa de devolución de productos se ha desplomado.

Esta compañía se encontró con una trampa común de tratar con algoritmos: los algoritmos tienden a ser miopes. Se centran en los datos en cuestión, y que los datos a menudo pertenecen a resultados a corto plazo. Puede haber tensión entre el éxito a corto plazo y los beneficios a largo plazo y los objetivos corporativos más amplios. Los humanos lo entienden implícitamente; los algoritmos no lo hacen a menos que se lo diga.

Este problema se puede resolver en la fase de determinación de objetivos identificando y especificando objetivos a largo plazo. Pero al actuar sobre las predicciones de un algoritmo, los gestores también deben ajustarse en función de la medida en que el algoritmo es coherente con los objetivos a largo plazo.

La miopía es también la debilidad subyacente de los programas que producen contenido de baja calidad al tratar de maximizar los clics. Los algoritmos se están optimizando para un objetivo que se puede medir en el momento, ya sea que un usuario haga clic en un enlace, sin tener en cuenta el objetivo más largo y más importante de mantener a los usuarios satisfechos con su experiencia en el sitio.

Del mismo modo, la miopía puede ser un problema con las campañas de marketing. Considere una campaña publicitaria de Gap con Google. Lo más probable es que conduciría a un pico en las visitas a Gap.com, porque el algoritmo de Google es bueno para predecir quién hará clic en un anuncio. El problema es que el objetivo real es aumentar las ventas, no aumentar las visitas a sitios web. Para hacer frente a esto, las plataformas publicitarias pueden recopilar datos de ventas a través de una variedad de canales, como asociaciones con sistemas de pago, e incorporarlos a sus algoritmos.

Los algoritmos se centran en los datos disponibles, que a menudo se refiere a resultados a corto plazo.

Además, las visitas a sitios web son un comportamiento a corto plazo, mientras que el impacto a largo plazo de los anuncios incluye los efectos descendentes en la imagen de marca y la repetición de negocios. Si bien es difícil encontrar datos perfectos sobre tales efectos, las auditorías de datos cuidadosas pueden ayudar mucho. Los gerentes deben enumerar sistemáticamente todos los datos internos y externos que puedan ser relevantes para el proyecto en cuestión. Con una campaña de Google, los vendedores de The Gap podrían comenzar por establecer todos sus objetivos —altas ventas, bajos rendimientos, buena reputación, etcétera — y luego detallar maneras de medir cada uno. Las devoluciones de productos, las reseñas en línea y las búsquedas del término «Gap» serían excelentes métricas. El mejor algoritmo podría entonces construir predicciones a partir de una combinación de todas estas características, calibrando su importancia relativa.

Elegir las entradas de datos correctas

Volvamos al ejemplo de los departamentos de salud que están tratando de identificar restaurantes en riesgo de causar enfermedades transmitidas por los alimentos. Como se mencionó anteriormente, históricamente las ciudades han inspeccionado aleatoriamente o sobre la base de los resultados de las inspecciones previas. Trabajando con Yelp, uno de nosotros ayudó a la ciudad de Boston a usar reseñas en línea para determinar qué restaurantes eran más propensos a violar los códigos de salud locales, creando un algoritmo que comparaba el texto de las revisiones con los datos históricos de inspección. Al aplicarlo, la ciudad identificó el mismo número de violaciones que de costumbre, pero con un 40% menos de inspectores, lo que supone un aumento dramático de la eficiencia.

Este enfoque funcionó bien no solo porque teníamos muchos restaurantes que mirar, sino porque las reseñas de Yelp proporcionaban un gran conjunto de datos, algo que las ciudades no habían pensado mucho. Una revisión de Yelp contiene muchas palabras y una variedad de información. Los datos también son diversos, porque se extraen de diferentes fuentes. En resumen, es bastante diferente a las ciudades de datos creadas por el inspector con las que estaban acostumbradas a trabajar.

Al elegir los recursos de datos adecuados, tenga en cuenta lo siguiente:

Más ancho es mejor.

Una trampa en la que a menudo caen las empresas es pensar en el big data como una gran cantidad de registros, por ejemplo, mirar a un millón de clientes en lugar de 10.000. Pero esto es sólo la mitad de la imagen. Imagine sus datos organizados en una tabla, con una fila para cada cliente. El número de clientes es la longitud de la tabla. La cantidad que conoce de cada cliente determina el ancho: cuántas funciones se registran en cada fila. Y si bien el aumento de la longitud de los datos mejorará sus predicciones, toda la potencia del big data proviene de recopilar datos amplios. Aprovechar la información completa está en el corazón de la predicción. Cada detalle adicional que aprendas sobre un resultado es como una pista más, y se puede combinar con pistas que ya has recopilado. Los documentos de texto son una gran fuente de datos amplios, por ejemplo; cada palabra es una pista.

La diversidad importa.

Un corolario de esto es que los datos deben ser diversos, en el sentido de que las diferentes fuentes de datos deben estar relativamente poco relacionadas entre sí. Aquí es de donde proviene la potencia predictiva extra. Trate cada conjunto de datos como una recomendación de un amigo. Si los conjuntos de datos son demasiado similares, no habrá mucha ganancia marginal de cada uno adicional. Pero si cada conjunto de datos tiene una perspectiva única, se crea mucho más valor.

Comprender las limitaciones

Saber lo que su algoritmo no puede decirle es tan importante como saber lo que puede. Es fácil sucumbir a la creencia equivocada de que las predicciones hechas en un contexto se aplicarán igualmente bien en otro. Eso es lo que impidió que la competencia de Netflix de 2009 produjera más beneficios para la empresa: el algoritmo que pronosticaba con precisión qué DVD una persona querría pedir en el correo no era tan bueno para identificar qué película querría transmitir una persona en este momento. Netflix obtuvo información útil y buena publicidad del concurso, pero los datos recopilados en DVD no se aplicaban a la transmisión.

Los algoritmos usan datos existentes para hacer predicciones sobre lo que podría suceder con una configuración, población, hora o pregunta ligeramente diferentes. En esencia, estás transfiriendo una visión de un contexto a otro. Por lo tanto, es una práctica sabia enumerar las razones por las que el algoritmo podría no ser transferible a un nuevo problema y evaluar su significado. Por ejemplo, un algoritmo de infracción de código de salud basado en revisiones e infracciones en Boston puede ser menos efectivo en Orlando, que tiene un clima más cálido y, por lo tanto, enfrenta diferentes problemas de seguridad alimentaria.

Recuerde también que la correlación todavía no significa causalidad. Supongamos que un algoritmo predice que los tweets cortos se retuitearán con más frecuencia que los más largos. Esto no sugiere de ninguna manera que deba acortar sus tweets. Esto es una predicción, no un consejo. Funciona como predicción porque hay muchos otros factores que se correlacionan con tweets cortos que los hacen efectivos. Esta es también la razón por la que falla como consejo: Acortar tus tweets no necesariamente cambiará esos otros factores.

Considere las experiencias de eBay, que había estado anunciando a través de Google durante años. eBay vio que las personas que vieron esos anuncios tenían más probabilidades de comprar en él que las personas que no lo hacían. Lo que no vio fue si los anuncios (que se mostraron millones de veces) estaban haciendo que la gente viniera a su sitio. Después de todo, los anuncios se mostraron deliberadamente a los compradores probables de eBay. Para separar la correlación de la causalidad, eBay llevó a cabo un gran experimento en el que se anunciaba aleatoriamente a algunas personas y no a otras. ¿El resultado? Resulta que los anuncios eran en su mayor parte inútiles, porque las personas que los vieron ya sabían de eBay y habrían hecho compras allí de todos modos.

Los algoritmos capaces de hacer predicciones no eliminan la necesidad de cuidado al dibujar conexiones entre causa y efecto; no son un reemplazo para experimentos controlados. Pero lo que pueden hacer es extremadamente poderoso: identificar patrones demasiado sutiles para ser detectados por la observación humana, y usar esos patrones para generar ideas precisas e informar mejor a la toma de decisiones. El reto para nosotros es comprender sus riesgos y limitaciones y, a través de una gestión eficaz, desbloquear su notable potencial.

Escrito por Michael Luca, Sendhil Mullainathan Michael Luca,