Comprender a los clientes mediante la combinación de conocimientos humanos y aprendizaje automático

oct17-27-hbr-paul-garbett-information-technology
Paul Garbett para HBR

¿Cómo pueden las empresas utilizar el aprendizaje automático para comprender de manera eficiente las necesidades y deseos de sus clientes, sin sacrificar los conocimientos que provienen de la intuición y la empatía de los empleados?

Mi empresa está en el negocio de ayudar a otras empresas a crear nuevos productos y servicios que serán funcionalmente útiles y emocionalmente resonantes entre los clientes. Como parte de este trabajo, solicitamos materiales en línea a los clientes de una empresa y a los clientes potenciales. En un año determinado, recibimos aproximadamente 13 millones de envíos de texto no estructurados y más de 307.000 fotos y videos de alrededor de 167.000 colaboradores diversos, todos los cuales están respondiendo preguntas abiertas planteadas por nosotros, así como generando sus propias conversaciones sobre temas de su elección. Nuestro reto: encontrar las necesidades insatisfechas y, a menudo, anhelos desarticulados en esta riqueza de contenidos. Para ello, utilizamos un método de aprendizaje automático supervisado por humanos del que creemos que otras empresas podrían aprender. Así es como funciona.

La programación informática tradicional se basa en la articulación de un conjunto de reglas explícitas para que el equipo siga. Por ejemplo: Si la frase contiene la palabra «loco», cójala como negativa o Si el objeto de la imagen tiene cuatro ruedas, márquelo como un coche. Pero, ¿qué pasa cuando el objeto de cuatro ruedas viene en una caja de Cracker-Jacks o una Happy Meal? ¿Debería ser etiquetado como un juguete? ¿Como peligro de deglución?

Puede ver las limitaciones de este enfoque basado en reglas al tratar de entender la expresión humana no estructurada. Estar «loco» es estar loco o enojado; estar «loco» es todo lo contrario. Y no solo los objetos de cuatro ruedas pueden ser aspiradoras o juguetes, sino que los automóviles pueden tener tres ruedas.

Nadie puede escribir o articular todas las reglas para clasificar todas las cosas, y ciertamente no pueden documentar todas las formas en que se expresa la emoción humana. Como humanos, aprendemos, clasificamos y actuamos en base al reconocimiento de patrones y asociaciones pasadas. Hacemos suposiciones rápidas del rayo basadas en patrones, propósito y contexto.

El tipo de aprendizaje automático que empleamos... aprendizaje automático supervisado... también se basa en el aprendizaje de asociaciones pasadas. Al proporcionar ejemplos que ya hemos clasificado, el equipo puede «aprender» de la experiencia sin ser programado explícitamente, y hacerse más inteligente con el tiempo a medida que se acumula esa experiencia.

El aprendizaje automático es solo una herramienta en nuestro kit de herramientas en constante evolución. Pero es muy útil, y un enfoque que refleja nuestro compromiso de hacer que las empresas sean más humanas, por múltiples razones.

Por ejemplo, las empresas se centran naturalmente en lo que se mide fácilmente en sus esfuerzos por evaluar y mejorar el rendimiento y la experiencia del cliente. Ese sesgo se amplifica en los estudios tradicionales de mercado, donde se suele hacer a la gente preguntas de votación cerrada y de escala de calificación que dan respuestas que son fácilmente cuantificables y repetibles. Pero a menudo la mejor idea se encuentra en la conversación espontánea con los clientes, no en la encuesta en línea que se pide a los compradores que completen, sino en las fotos que toman, los tweets que publican y los consejos que ofrecen en los foros en línea. Así que en lugar de obligar a las personas a asumir el papel de «encuestado» y limitar su aportación solo a las respuestas a las preguntas que hemos pensado hacer, animamos a los miembros de nuestra comunidad a compartir de múltiples maneras, sabiendo que el aprendizaje automático nos hará más eficientes en la interpretación de muchas formas de expresión humana. En ese sentido, nos permite ser más humanos y más Centrado en los clientes.

El aprendizaje automático no nos alivia de la necesidad (y el gran placer de) exploración. Más bien, sirve como nuestro detector de metales, emergiendo las señales en los datos y alertándonos de dónde cavar en busca de oro. Por ejemplo, en una comunidad privada que corrimos para personas con esquizofrenia esperábamos y vimos mucha conversación sobre síntomas, medicamentos y efectos secundarios. Pero cuando analizamos el texto no estructurado que emergía ese grupo vimos un número inusual de referencias al arte, la música y la escritura. Esto nos llevó a explorar más profundamente la importancia de la expresión creativa en la vida de estos pacientes, lo que a su vez sirvió de base a los programas de mensajería y soporte de nuestros clientes de formas nuevas y poderosas.

Este tipo de análisis viene con riesgos y limitaciones. El principal de ellos son los sesgos implícitos en los propios conjuntos de entrenamiento, que pueden conducir a conclusiones erróneas, ineficaces o incluso poco éticas. Después de todo, las computadoras no son curiosas. La máquina no puede preguntar: «¿A quién no hemos solicitado la perspectiva?» No puede sugerir «¿Y si hacemos la pregunta de manera diferente?» Nos sigue correspondiendo, como personas reflexivas y conscientes de sí mismas, hacer eso, y auditar nuestros algoritmos en busca de sesgos.

Además, las máquinas carecen de la cualidades humanas que son tan esenciales para el crecimiento empresarial. Aunque se les puede enseñar a reconocer sentimientos, no se les puede enseñar a sentir. La excitación emocional es crucial para impulsar el cambio individual y organizacional y para construir fuertes relaciones con los consumidores. Y debido a que las computadoras carecen de emociones, carecen del poder para empatizar o excitar las nuestras.

Ese déficit emocional, que a su vez crea un déficit relacional, es por eso que tendemos a tratar a las máquinas como herramientas, no como colegas. Como Kurt Gray observó en una fascinante Artículo de HBR, «Confiar en los miembros del equipo requiere al menos tres cosas: preocupación mutua, sentido compartido de vulnerabilidad y fe en la competencia. La preocupación mutua —saber que sus compañeros de equipo se preocupan por su bienestar— es quizás el elemento más básico de confianza... Desconfiamos de la IA no sólo porque parece carecer de inteligencia emocional, sino también porque carece de vulnerabilidad».

A falta de ese elemento vital de confianza, la preocupación mutua, continuaremos valorando y utilizando el aprendizaje automático, pero no «relacionándonos» con la máquina. Pero cuando esos ingredientes humanos están en su lugar, las empresas pueden forjar conexiones fuertes y duraderas para el consumidor que ninguna máquina puede ayudar a construir, en lugar de reemplazar.

Julie Wittes Schlack Via HBR.org