Los robots aprenden tareas complejas con solo ver a los humanos hacerlas
por Julie Shah
Los robots industriales solían ser grandes, difíciles de manejar y peligrosos, pero ahora son habituales los nuevos robots «seguros para las personas» en las líneas de automóviles, que trabajan junto a las personas. Sin embargo, estos robots son compañeros de trabajo incómodos; coexisten con nosotros pero no colaboran de manera significativa. A los robots a menudo hay que decirles explícitamente cómo ayudar o cuándo mantenerse alejados, cosas que los compañeros de equipo humanos parecen aprender de forma intuitiva. Un buen aprendiz de humano es un gran observador, que deduce reglas y costumbres tácitas, observa cómo trabajan los demás y, luego, generaliza este conocimiento para situaciones nuevas. Somos capaces de lograrlo en parte porque la mente humana es capaz de procesar información muy compleja de manera muy eficiente. Este tipo de inferencias han sido tradicionalmente difíciles de realizar para las máquinas.
Investigaciones recientes indican que estamos en un punto de inflexión en la forma en que los robots observan y procesan los datos y, por lo tanto, en la forma en que trabajan con las personas.
Los especialistas en robótica están empezando a aplicar ingeniería inversa a la mente humana traduciendo los modelos cognitivos que los humanos utilizan de forma intuitiva en modelos computacionales que las máquinas puedan utilizar. Con este enfoque, los robots y los humanos que trabajan en parejas han podido realizar tareas complejas tan bien o mejor que los equipos humanos.
Las implicaciones son enormes. Imagínese un robot que participe como miembro del equipo en la planificación de un despliegue de respuesta de emergencia. El robot escucha la conversación del equipo humano para aprender automáticamente el plan de juego. Un robot así no tendría que esperar hasta después de la reunión para que le dijeran qué hacer, sino que podría tomar inmediatamente la iniciativa para realizar tareas que ayudaran al equipo a alcanzar sus objetivos. Esta habilidad básica se espera de los humanos que trabajan en la respuesta de emergencia y otras situaciones en las que el tiempo es crítico, pero es transformadora para los robots.
El desafío es que el diálogo colaborativo es complejo: se desarrolla en ciclos, los acuerdos son fluidos y las propuestas suelen comunicarse y aceptarse de forma implícita o pasiva. El equipo puede considerar y rechazar muchas opciones y revisar el plan muchas veces. Es difícil para una máquina deducir nuestros planes de manera eficiente; puede que el robot tenga que considerar y explorar billones de planes posibles, incluso para un escenario simple con solo unos pocos miembros del equipo y unos pocos objetivos.
Por el contrario, los miembros del equipo humano no necesitan horas después de una reunión para saber lo que se ha acordado. Por lo general, podemos salir de las reuniones con una imagen clara del plan. Lo hacemos empleando un andamiaje mental para recomponer la conversación. Todos los miembros del equipo están motivados por los mismos objetivos y tienen los mismos conocimientos básicos de las capacidades del equipo, y cada sugerencia que hace un miembro del equipo se considera en su contexto.
Mi grupo de investigación, el Grupo de Robótica Interactiva del MIT, aprovechó esta visión para diseñar un modelo computacional que replica la estructura inherente a la forma en que un equipo discute y negocia un plan. Le dimos a la máquina un poco de información, por ejemplo, el número de miembros del equipo, sus capacidades, los objetivos del equipo y la información sobre las tareas. La máquina utilizó esta información para deducir el plan final juntando las piezas del plan que tenía más probabilidades de ser válido, dado el contexto del problema. Por ejemplo, si se le dijera a la máquina que el equipo tiene cuatro miembros pero que ocho tareas se van a realizar al mismo tiempo, se podría deducir que los compañeros de equipo realizarán múltiples tareas o que hay que revisar el plan para que las tareas se realicen de forma secuencial. El enfoque ha demostrado su éxito en la planificación de la respuesta de emergencia. A los equipos de personas se les encomendó la tarea de formular un plan de respuesta complejo y la máquina pudo deducir el plan final con una precisión de hasta un 86%, de media.
El mismo enfoque también permite a los robots aprender planes complejos con solo vernos tomar decisiones en nuestro trabajo. De hecho, nuestros estudios más recientes muestran que los robots pueden aprender las complejas estrategias de toma de decisiones de los expertos que realizan tareas del mundo real en defensa y atención médica.
La clave estaba en diseñar la estructura de nuestro modelo para hacer un uso muy eficiente de cada observación del experto humano. Cada decisión que toma un experto proporciona una gran cantidad de información que revela cómo se priorizó esa opción en particular sobre otras opciones. Diseñamos un modelo para aprovechar esta estructura lógica transformando los datos observados en clasificaciones por pares de las opciones. Este enfoque mejoró sustancialmente la capacidad de la máquina para aprender de manera eficiente un modelo de alta calidad de la estrategia de toma de decisiones del experto humano.
Esta técnica se aplicó correctamente en dos entornos.
En la primera, los expertos en el dominio jugaban un juego serio en el que los barcos se defendían de una serie de amenazas de misiles. Puede que una máquina necesite días o semanas para resolver bien este tipo de problemas, pero los expertos humanos son capaces de tomar buenas decisiones muy rápido. Con nuestro modelo computacional estructurado, la máquina pudo aprender estrategias eficaces con solo 16 demostraciones de expertos en humanos. De hecho, la máquina fue capaz de superar la puntuación media de los expertos en muchas de las tareas de defensa antimisiles.
En el segundo escenario, una máquina aprendió estrategias para coordinar la atención de los pacientes en una unidad hospitalaria por parte de los profesionales de la salud. En concreto, aprendió las estrategias de toma de decisiones sobre dónde y cuándo trasladar a los pacientes de un tipo de habitación a otro y cómo asignar a las enfermeras en diferentes condiciones de carga de trabajo. La tecnología se evaluó mediante experimentos en los que un robot ayudaba a las enfermeras y a los médicos a tomar decisiones sobre la atención de los pacientes en una simulación de alta fidelidad. Las enfermeras y los médicos siguieron las recomendaciones del robot en un tasa del 90%, un fuerte indicio de que el robot había aprendido estrategias de alta calidad para la tarea.
Estos avances recientes indican que las máquinas tienen un enorme potencial para colaborar con nosotros de formas ricas que ampliarán y mejorarán la capacidad humana en muchos sectores de la economía. Los robots del futuro no tendrán que quedarse al margen ni esperar a que les digan lo que tienen que hacer. Los robots estarán realmente a nuestro servicio, preparados, dispuestos y capaces de aprender observándonos. Trabajarán hombro con hombro en las líneas de montaje, en los hospitales y en primera línea de la respuesta de emergencia. Los torpes robots del pasado serán reemplazados por valiosos miembros del equipo.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.