PathMBA Vault

Technology and analytics

Por qué no debería insultar a Siri

por Michael Schrage

Por qué no debería insultar a Siri

oct16-21-165678010

Deje de insultar a Siri. Deje de maldecir a Cortana. A medida que los dispositivos digitales se hacen más inteligentes, ser bárbaro con los bots podría costarle el trabajo.

A medida que proliferan las capacidades de aprendizaje automático e inteligencia artificial, la sensibilidad del diseño de las interfaces digitales comienza a acelerarse desde eseuomórfico a antropomórfico. Considere cómo Slack y Hipchat ahora utilizan bots que van más allá de la automatización de las interfaces para facilitar experiencias de usuario más inteligentes y atractivas. Eso es Chatbot 1.0. La continua innovación algorítmica garantiza que los bots de la próxima generación sean mucho más nítidos y más empático.

Para Apple, Google, Amazon, Microsoft, Tencent y Facebook, hacer que los bots y los asistentes de software sean más humanos (y más humanos) se ha convertido en un imperativo estratégico de la experiencia de usuario. Ser afectivo importa tanto como ser eficaz.

Pero como los humanos no adjuntan (todavía) agencia o inteligencia a sus dispositivos, están notablemente desinhibidos a la hora de abusar de ellos. Tanto la investigación académica como la observación anecdótica sobre las interfaces hombre/máquina sugieren que las voces en alto y los comentarios vulgares son más comunes que no. Se estima que entre el 10 y el 50% de las interacciones son abusivas, según la Dra. Sheryl Brahnam en una entrevista con TechEmergence a finales del año pasado.

Estos comportamientos simplemente no son sostenibles. Si los robots adaptativos aprenden de cada interacción humana significativa que tienen, el maltrato y el abuso se convierten en toxinas tecnológicas. El mal comportamiento puede envenenar el comportamiento de los robots. Eso socava la eficiencia, la productividad y la cultura empresarial.

Por eso ser malo con los bots se convertirá en un tabú profesional y social en el lugar de trabajo del mañana. Cuando los dispositivos de «aprendizaje profundo» impactan emocionalmente en sus usuarios, maltratarlos se parece menos a romper el teléfono móvil que a patear a un gatito. El primero se gana una reprimenda; el segundo hace que lo despidan.

Así como no se patearía al gato de la oficina ni ridiculizaría a un subordinado, la sola idea de maltratar cada vez más los dispositivos inteligentes se hace inaceptable. Si bien no están vivos (biológicamente), estos objetos inanimados están entrenados explícitamente para anticipar y responder a las necesidades del lugar de trabajo. Abusar verbal o textualmente de ellos en el transcurso del trabajo parece injustificadamente poco profesional y contraproducente.

Dicho crudamente, romper su iPhone significa que tiene mal genio; llamar inapropiados a su Siri en apuros hace que lo llamen antes que Recursos Humanos. Usar malos modales con las tecnologías inteligentes puede llevar a una mala gestión.

Su grosería incita a su bajo rendimiento. El abuso refleja un entorno de trabajo hostil que socava la forma en que aprenden los bots. Etiqueta de Microsoft ofrece un estudio de caso real tremendamente magnífico (y magníficamente doloroso) sobre cómo el abuso en red da forma a la experiencia de usuario. Menos de un día después de que Microsoft Research publicara su bot de Twitter de aprendizaje automático sin supervisión, Tay se convirtió en un «chatbot del infierno» y tuiteó una serie de comentarios cada vez más desagradables, racistas y homófobos hasta Microsoft lo desconectó.

«El problema era que Microsoft no dejaba ningún volante y no hacía que el bot fuera autorreflexivo», dijo Brandon Wirtz en un reciente Artículo de LinkedIn acerca de la situación. «[Tay] no sabía que debía simplemente ignorar a las personas que actúan como nazis, por lo que ella misma pasó a serlo».

Por el contrario, observe cómo el chatbot de Microsoft prosperó en el entorno digital más regulado e inhibido de China. Xiaoice pudo evitar los problemas de Tay porque la cultura digital china sanciona de manera efectiva ciertas formas de expresión. Donde Tay ya no está, Xiaoice disfruta más de 40 millones de usuarios en China y Japón.

Comprometer y compensar digitalmente a los clientes groseros y abusivos es una cosa, pero hacer que los bots estén en deuda con los empleados groseros y abusivos es otra muy distinta. Por mucho que ciertos tipos de comportamientos se hicieran groseros, vulgares y anacrónicos cuando las mujeres ingresaron masivamente a la fuerza laboral, la idea de que maldecir a las máquinas inteligentes es aceptable mientras se insulta a sus colegas tontos no parece condenada a desaparecer.

No piense ni por un momento que no habrá registros digitales inmaculados de las malas conductas empresariales. Puede estar seguro de que Apple tiene una visión excelente de la frecuencia con la que insultan y maltratan a Siri. ¿De verdad cree que Amazon no instrumentaliza a Alexa de manera similar? Podemos apostar con confianza a que los administradores de sistemas registran los intercambios de chatbots para saber qué acciones (y qué usuarios) inspiran críticas. Los teléfonos inteligentes en red podrían rastrear fácilmente las malas acciones. De hecho, en muchos sistemas de aprendizaje automático (si no en la mayoría), los insultos y los abusos podrían fácilmente formar parte del entrenamiento en el mundo real. Quizás incluso se les pueda programar o entrenar para que se quejen de los malos tratos.

La visión profunda del «aprendizaje profundo» será que es absurdo faltarle el respeto a la inteligencia adaptativa independientemente de su origen. Por supuesto, no faltan excelentes historias y escenarios de ciencia ficción que advierten que el abuso de las máquinas inteligentes puede ser peligroso para la salud humana. Ningún chatbot conocido obedece actualmente al de Asimov Tres leyes de la robótica.

Sin embargo, la conclusión más seria y práctica es que este irresistible auge de máquinas cada vez más inteligentes en todo el mundo exige que los líderes y los directivos se conviertan en mejores personas. Arremeter de manera autocomplaciente contra los bots y agentes de software con bajo rendimiento representa un mal liderazgo con el ejemplo y, lo que es peor, una mala educación.

Más pronto que tarde, las organizaciones tendrán que reconocer que para sacar lo mejor de sus tecnologías inteligentes es necesario sacar lo mejor de sí mismas.