¿La gente confía en los algoritmos más de lo que las empresas creen?

Muchas empresas asumen que los clientes desconfían de sus algoritmos y hacen todo lo posible para ocultarlos o humanizarlos. Pero, ¿es una buena práctica que las empresas oculten sus algoritmos de esta manera? Los investigadores decidieron cuestionar esta suposición y una serie de estudios descubrieron que a la gente no le disgustan los algoritmos tanto como la sabiduría anterior nos hace creer.

••• Muchas empresas se han subido al tren de los «macrodatos». Están contratando científicos de datos, extrayendo datos de empleados y clientes para obtener información y creando algoritmos para optimizar sus recomendaciones. Sin embargo, estas mismas empresas suelen dar por sentado que los clientes desconfían de sus algoritmos y hacen todo lo posible para ocultarlos o humanizarlos. Por ejemplo, Stitch Fix, el servicio de suscripción de compras en línea que combina el juicio humano y el algorítmico, destaca el toque humano de su servicio en su marketing. El sitio web explica que para cada cliente, «un estilista seleccionará 5 prendas [de ropa]». Se refiere a su servicio como «su pareja con un estilo personal» y «su nuevo estilista personal» y describe sus recomendaciones como «personalizadas» y «cuidadosamente seleccionadas». Para colmo, cada envío de ropa va acompañado de una nota de su estilista. En ninguna parte del sitio web puede encontrar el término «basado en datos», a pesar de que[Se conoce a Stitch Fix](/2018/05/stitch-fixs-ceo-on-selling-personal-style-to-the-mass-market) por su enfoque de ciencia de datos y a menudo lo llaman el «Netflix de la moda». Parece que cuanto más esperan las empresas que los usuarios interactúen con su producto o servicio, más antropomorfizan sus algoritmos. Piense en cómo las empresas llaman a sus asistentes virtuales, como Siri y Alexa. Y cómo los creadores de Jibo, «el primer robot social del mundo», diseñaron una pieza de plástico descaradamente adorable que ríe, canta, tiene un bonito ojo parpadeante y se mueve de una manera que imita el baile. Pero, ¿es una buena práctica que las empresas oculten sus algoritmos de esta manera? ¿Se está gastando bien el dinero en marketing en crear nombres para Alexa y rasgos faciales para Jibo? ¿Por qué estamos tan seguros de que los algoritmos y sus consejos desaniman a la gente? Nuestras investigaciones recientes cuestionaron esta suposición. ### El poder de los algoritmos Primero, un poco de información. Desde la década de 1950, los investigadores han documentado los muchos tipos de predicciones en las que[los algoritmos superan a los humanos](http://id.lib.harvard.edu/alma/990014110120203941/catalog). Los algoritmos superan a los médicos y patólogos a la hora de predecir la [supervivencia de los pacientes con cáncer](https://hollis.harvard.edu/primo-explore/fulldisplay?docid=TN_sciversesciencedirect_elsevier0030-5073(72)90009-8&context=PC&vid=HVD2&search_scope=everything&tab=everything⟨=en_US), aparición de [ataques al corazón](https://hollis.harvard.edu/primo-explore/fulldisplay?docid=TN_wosA1997XW90100019&context=PC&vid=HVD2&search_scope=everything&tab=everything⟨=en_US), y [gravedad de las enfermedades](https://hollis.harvard.edu/primo-explore/fulldisplay?docid=TN_medline904659&context=PC&vid=HVD2&search_scope=everything&tab=everything⟨=en_US). Algoritmos [predecir la reincidencia](https://hollis.harvard.edu/primo-explore/fulldisplay?docid=TN_jstor_archive_410.2307/3053536&context=PC&vid=HVD2&search_scope=everything&tab=everything⟨=en_US.) de personas en libertad condicional mejor que las juntas de libertad condicional. Y ellos predicen[si una empresa quebrará](https://hollis.harvard.edu/primo-explore/fulldisplay?docid=TN_sciversesciencedirect_elsevier0030-5073(76)90002-7&context=PC&vid=HVD2&search_scope=everything&tab=everything⟨=en_US) mejor que los oficiales de préstamos. Según las anécdotas de un libro clásico sobre la precisión de los algoritmos, muchos de estos primeros hallazgos fueron[se encontró con escepticismo](http://id.lib.harvard.edu/alma/990014110120203941/catalog). Los expertos de la década de 1950 se mostraron reacios a creer que un simple cálculo matemático pudiera superar su propio juicio profesional. Este escepticismo persistió y se transformó en la sabiduría recibida de que la gente no confiará ni utilizará los consejos de un algoritmo. Esa es una de las razones por las que hoy en día tantos artículos siguen asesorando a los líderes empresariales sobre cómo [superar la aversión a los algoritmos](/2016/09/managers-shouldnt-fear-algorithm-based-decision-making). ### ¿Seguimos viendo desconfianza en los algoritmos hoy en día? En nuestra investigación reciente, descubrimos que[a la gente no le gustan los algoritmos](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2941774) tanto como una beca anterior nos haría creer. De hecho, las personas muestran «aprecio por los algoritmos» y se basan más en el mismo consejo cuando piensan que viene de un algoritmo que de una persona. En seis estudios, pedimos a muestras representativas de 1260 participantes en línea en los EE. UU. que hicieran una variedad de predicciones. Por ejemplo, pedimos a algunas personas que pronosticaran la aparición de acontecimientos empresariales y geopolíticos (por ejemplo, la probabilidad de que Norteamérica o la UE impusieran sanciones a un país en respuesta a los ciberataques); pedimos a otras que predijeran la clasificación de las canciones en el Billboard Hot 100; e hicimos que un grupo de participantes jugara a Matchmaker en línea (leyeron el perfil de citas de una persona, vieron una fotografía de su posible pareja y predijeron cuánto le gustaría tener una cita con él). En todos nuestros estudios, se pidió a los participantes que hicieran una predicción numérica basada en su mejor suposición. Tras su suposición inicial, recibieron consejos y tuvieron la oportunidad de revisar su predicción. Por ejemplo, los participantes respondieron: «¿Cuál es la probabilidad de que Tesla Motors entregue más de 80 000 vehículos eléctricos (BEV) que funcionan con baterías a los clientes en el año natural 2016?» escribiendo un porcentaje del 0 al 100%. Cuando los participantes recibían consejos, adoptaban la forma de otra predicción, que se etiquetaba como de otra persona o de un algoritmo. Elaboramos el consejo numérico utilizando matemáticas simples que combinaban varios juicios humanos. Hacerlo nos permitió dar sinceramente el mismo consejo que «humano» o «algorítmico». Incentivamos a los participantes a revisar sus predicciones: cuanto más se acercara su predicción a la respuesta real, mayores serán sus probabilidades de recibir una bonificación monetaria. Luego, medimos cuánto cambiaron las personas su estimación, tras recibir el consejo. Para cada participante, capturamos un porcentaje del 0 al 100% para reflejar cuánto cambiaron su estimación con respecto a su suposición inicial. En concreto, el 0% significa que hizo caso omiso por completo del consejo y mantuvo su estimación original, el 50% significa que cambió su estimación a mitad de camino hacia el consejo y el 100% significa que coincidió completamente con el consejo. Para nuestra sorpresa, descubrimos que la gente confiaba _más_ siguiendo el mismo consejo cuando pensaban que venía de un algoritmo que de otras personas. Estos resultados fueron consistentes en todos nuestros estudios, independientemente de los diferentes tipos de predicciones numéricas. La apreciación de este algoritmo nos pareció especialmente interesante, ya que no proporcionamos mucha información sobre el algoritmo. Presentamos el consejo algorítmico de esta manera porque los algoritmos aparecen normalmente en la vida diaria sin una descripción (los llamados algoritmos de «caja negra»); la mayoría de las personas no conocen el funcionamiento interno de los algoritmos que predicen las cosas que les afectan (como el clima o la economía). Nos preguntábamos si nuestros resultados se debían a la creciente familiaridad de la gente con los algoritmos en la actualidad. Si es así, la edad podría explicar la apertura de las personas a los consejos algorítmicos. En cambio, descubrimos que la edad de nuestros participantes no influía en su voluntad de confiar en el algoritmo. En nuestros estudios, las personas mayores utilizaron los consejos algorítmicos tanto como los jóvenes. Lo que sí importaba era lo cómodos que se sentían los participantes con los números, que medimos pidiéndoles que hicieran un examen de aritmética de 11 preguntas. Cuanto más numeraran nuestros participantes (es decir, cuantas más preguntas de matemáticas respondieran correctamente en el examen de 11 puntos), más escuchaban los consejos algorítmicos. A continuación, queríamos comprobar si la idea de que la gente no confíe en los algoritmos sigue siendo relevante hoy en día y si los investigadores contemporáneos seguirían prediciendo que a la gente no le gustarían los algoritmos. En un estudio adicional, invitamos a 119 investigadores que estudian el juicio humano a predecir cuánto escucharían los participantes los consejos cuando venían de una persona en lugar de un algoritmo. Entregamos a los investigadores el mismo material de encuesta que nuestros participantes habían visto en el estudio Matchmaker. Estos investigadores, de acuerdo con lo que muchas empresas han supuesto, predijeron que las personas mostrarían aversión a los algoritmos y confiarían más en los consejos humanos, todo lo contrario de lo que descubrimos realmente. También teníamos curiosidad por saber si la experiencia del responsable de la toma de decisiones podría influir en la apreciación algorítmica. Reclutamos una muestra diferente de 70 profesionales de la seguridad nacional que trabajan para el gobierno de los Estados Unidos. Estos profesionales son expertos en pronósticos, porque hacen predicciones de forma regular. Les pedimos que pronosticaran diferentes acontecimientos geopolíticos y empresariales e hicimos lo mismo con una muestra adicional de personas no expertas (301 participantes en línea). Como en nuestros otros estudios, ambos grupos hicieron una predicción, recibieron consejos etiquetados como humanos o algorítmicos y, a continuación, se les dio la oportunidad de revisar su predicción para hacer una estimación final. Se les informó de que cuanto más precisas fueran sus respuestas, mayores serían sus posibilidades de ganar un premio. Los no expertos actuaron como nuestros participantes anteriores: se basaron más en el mismo consejo cuando pensaban que venía de un algoritmo que en una persona para cada una de las previsiones. Sin embargo, los expertos descartaron tanto los consejos del algoritmo como los consejos de la gente. Parecía que eran los que más confiaban en su propia experiencia e hicieron revisiones mínimas a sus predicciones originales. Tuvimos que esperar alrededor de un año para puntuar la precisión de las predicciones, en función de si el suceso se había producido realmente o no. Descubrimos que los expertos y los no expertos hacían predicciones con la misma precisión cuando recibían consejos de la gente, porque los descartaban por igual. Pero cuando recibían consejos de un algoritmo, los expertos hacían predicciones menos precisas que los no expertos, porque los expertos no estaban dispuestos a escuchar los consejos algorítmicos. En otras palabras, si bien nuestros participantes no expertos confiaban en los consejos algorítmicos, los expertos en seguridad nacional no, y eso les costó en términos de precisión. Parecía que su experiencia les hacía confiar especialmente en sus previsiones, lo que les llevó a ignorar más o menos el juicio del algoritmo. Otro estudio que realizamos corrobora esta posible explicación. Hemos comprobado si la fe en el propio conocimiento podría impedir que la gente aprecie los algoritmos. Cuando los participantes tuvieron que elegir entre confiar en un algoritmo o confiar en los consejos de otra persona, volvimos a descubrir que la gente prefería el algoritmo. Sin embargo, cuando tuvieron que elegir entre confiar en su propio juicio o en el consejo de un algoritmo, la popularidad del algoritmo disminuyó. Aunque las personas se sienten cómodas reconociendo los puntos fuertes del juicio algorítmico por encima del humano, su confianza en los algoritmos parece disminuir si la comparan directamente con su propio juicio. En otras palabras, las personas parecen apreciar más los algoritmos cuando eligen entre el juicio de un algoritmo y el de otra persona que cuando eligen entre el juicio de un algoritmo y el suyo propio. Otros investigadores han descubierto que el contexto de la toma de decisiones es importante para la forma en que las personas responden a los algoritmos. Por ejemplo, un artículo descubrió que cuando las personas ven que un algoritmo comete un error, son[es menos probable que confíe en él](https://repository.upenn.edu/cgi/viewcontent.cgi?article=1392&context=fnce_papers), lo que perjudica su precisión. Otros investigadores descubrieron que la gente prefiere tener [recomendaciones de broma de un amigo cercano sobre un algoritmo](https://scholar.harvard.edu/files/sendhil/files/recommenders55.pdf), a pesar de que el algoritmo funciona mejor. Otro artículo descubrió que es menos probable que las personas confíen en los consejos de un algoritmo cuando se trata de [decisiones morales](https://www.sciencedirect.com/science/article/pii/S0010027718302087) sobre los coches autónomos y la medicina. Nuestros estudios sugieren que las personas suelen sentirse cómodas aceptando las instrucciones de los algoritmos y, a veces, incluso confían más en ellos que en otras personas. Eso no quiere decir que los clientes no aprecien a veces «el toque humano» que hay detrás de los productos y servicios, pero sí sugiere que puede que no sea necesario invertir en hacer hincapié en el elemento humano de un proceso impulsado total o parcialmente por algoritmos. De hecho, cuanto más elaborado sea el artificio, más se sentirán engañados los clientes al enterarse de que en realidad se guiaron por un algoritmo. Google Duplex, que llama a las empresas para programar citas y hacer reservas,[generó una reacción instantánea](https://business.financialpost.com/technology/personal-tech/silicon-valley-is-ethically-lost-google-grapples-with-reaction-to-its-new-horrifying-and-uncanny-ai-tech) porque sonaba «demasiado» humano y la gente se sentía engañada. La transparencia puede dar sus frutos. Tal vez las empresas que se presentan como impulsadas principalmente por algoritmos, como Netflix y Pandora, tengan la idea correcta.