Cómo una empresa de fabricación alemana establece su laboratorio de análisis

Imágenes de PM/Getty Images

En los últimos años, la mayoría de las empresas han llegado a reconocer que la capacidad de recopilar y analizar los datos que generan se ha convertido en una fuente clave de ventaja competitiva.

ZF, un proveedor mundial de automoción con sede en Alemania, no fue una excepción. Las startups digitales habían comenzado a producir productos virtuales con los que ZF no sabía competir, y los ingenieros en logística, operaciones y otras funciones estaban descubriendo que sus enfoques tradicionales no podían manejar los complejos problemas que enfrentaban. Algunos ejecutivos de la compañía habían empezado a temer que estuvieran en su propio «momento Kodak», una interrupción fatal que podría redefinir su negocio y eliminar las ventajas acumuladas durante décadas. Con los analistas de automoción pronosticando importantes cambios en la movilidad, comenzaron a pensar que la empresa necesitaba un laboratorio dedicado que se centrara completamente en los desafíos de los datos.

Pero, ¿cómo?

En ese momento, uno de nosotros, Niklas, un científico de datos de ZF, estaba cursando un doctorado a tiempo parcial en la Universidad de Friburgo. Niklas dio el primer paso y reclutó a sus asesores en la universidad, Dirk Neumann y Tobias Brandt, para ayudarles a establecer un laboratorio para la empresa. Esto dio a ZF acceso a la experiencia de primera categoría en análisis de datos y gestión de sistemas de información.

Lo más difícil fue averiguar cómo funcionaría el laboratorio. Después de todo, los laboratorios de datos industriales son un fenómeno bastante nuevo... no se puede simplemente descargar un plano. Sin embargo, después de una serie de tropiezos, logramos ganar aceptación para el laboratorio y descubrimos una serie de mejores prácticas que creemos son ampliamente aplicables a casi cualquier laboratorio de datos.

  1. Centrarse en los clientes internos adecuados

ZF tenía docenas de departamentos llenos de proyectos relacionados con datos potencialmente de alto impacto. Aunque tuvimos la tentación de abordar muchos proyectos en toda la empresa, nos dimos cuenta de que para crear visibilidad dentro de una empresa de 146.000 empleados, primero teníamos que centrarnos en los departamentos y proyectos más prometedores.

Pero, ¿cómo definiríamos «el más prometedor»? Como el objetivo del laboratorio de datos es crear valor mediante el análisis de datos, inicialmente nos centramos en los departamentos que generan la mayor cantidad de datos. Desafortunadamente, esto no lo redujo mucho. Finanzas, Logística, Marketing, Ventas, así como Producción y Calidad produjeron grandes cantidades de datos que podrían ser interesantes para proyectos piloto de ciencia de datos.

Este artículo también aparece en:

Análisis estratégico: la información que necesita de HBR

Tecnología y Operaciones Libro22.95Añadir a la cesta

Sin embargo, sabíamos por experiencia que los frutos colgantes más bajos para proyectos de alto impacto en una empresa manufacturera como ZF serían en Producción y Calidad. Durante años, las líneas de producción de ZF habían estado conectadas y controladas por los sistemas MES y ERP, pero los datos que generaban aún no se habían aprovechado profundamente. Decidimos, por lo tanto, empezar concentrándonos en cuestiones de producción, como interrupciones, tasas de reprocesamiento y velocidad de producción, donde podríamos tener un impacto inmediato.

  1. Identificación de problemas de alto impacto

A continuación, seleccionamos aquellos proyectos dentro de Producción y Calidad que prometieron los resultados de mayor valor. Nuestra experiencia con los primeros proyectos proporcionó la base para un modelo de evaluación de proyectos, que hemos seguido perfeccionando. El modelo contenía un conjunto de criterios a lo largo de tres dimensiones que nos ayudaron a clasificar los proyectos.

  • Hay que definir claramente el problema que hay que resolver. No podíamos adoptar un objetivo abstracto como «mejorar la producción». Necesitábamos una idea clara de cómo el análisis crearía valor para el negocio.
  • Los datos duros tuvieron que desempeñar un papel importante en la solución. Y los datos tenían que estar disponibles, accesibles y de buena calidad. Necesitábamos proteger al equipo de ser inundado por proyectos de información de inteligencia empresarial.
  • El equipo tuvo que estar motivado. Les dimos independencia a los equipos de proyecto en la elección de cómo resolvieron los problemas que asumieron. Y aunque hicimos el presupuesto lo suficientemente ajustado como para imponer el enfoque, nos aseguramos de que no fuera tan apretado que el equipo no pudiera tomar decisiones básicas de asignación por sí mismo. Para mantener la motivación y el entusiasmo, priorizamos proyectos que podrían subdividirse en metas más pequeñas pero más fáciles de alcanzar.

Si bien finalmente nos pareció útil asignar a una persona en particular para gestionar las relaciones con el resto de la empresa, hemos mantenido todo el laboratorio involucrado en la selección de proyectos a medida que aumentaba el número de personas que trabajaban en el laboratorio. Esto mantuvo a todos informados, les dio un mayor sentido de responsabilidad personal y expresó implícitamente el aprecio de la dirección por su juicio profesional.

  1. Ejecución

El riesgo clave era que el equipo se perdiera en la optimización de matices menores de modelos y métodos en lugar de resolver el problema principal. Para evitar esto, solemos limitar la fase de ejecución a tres meses, y le dimos al equipo el derecho de cancelar su compromiso.

Este poder resultó ser un cambio de juego. Dar al equipo (incluido el experto en dominio) una «opción nuclear» los hizo mucho más centrados y orientados hacia los objetivos. Una vez que implementamos esta regla, el número de solicitudes de cambio del cliente interno se redujo y la información inicialmente proporcionada tendía a ser más precisa y completa que antes.

Por supuesto, un equipo no pudo cancelar un proyecto por razones arbitrarias. Necesitaba justificar su decisión, especificando las condiciones que podían reabrirse el proyecto. Y si bien las cancelaciones son polémicas, a veces son necesarias para liberar recursos y para imponer el progreso hacia un objetivo significativo. De hecho, la introducción de la capacidad de cancelar proyectos aumentó realmente el número de proyectos completados con éxito.

Aunque un solo equipo puede trabajar en varios proyectos simultáneamente, sobre todo porque esperar las respuestas del departamento cliente puede provocar retrasos, generalmente consideramos que es mejor que el equipo trabaje en un solo proyecto a la vez. Encontramos que los tiempos de inactividad fueron mejor utilizados por los miembros del equipo para aprender nuevos métodos y técnicas de análisis, que continuaron avanzando a un ritmo rápido.

Hemos mantenido a nuestro cliente interno al día sobre nuestro progreso a través de informes regulares y, cuando fue posible, mediante la inclusión de su experto en dominio en el equipo del proyecto. Si no pudiéramos hacerlo, buscamos un acuerdo, como una reunión semanal, que nos permitiera contactar directamente con el experto en el dominio sin tener que pasar por los gatekeepers.

Factores clave de éxito

Además de obtener una comprensión general del trabajo del laboratorio de datos como un proceso de tres etapas, también aprendimos otras lecciones. En particular, encontramos tres ingredientes más que son cruciales para el éxito del laboratorio de datos:

  • Apoyo ejecutivo. La confianza que el equipo ejecutivo de tecnología depositó en nosotros fue crucial para nuestro éxito. Afortunadamente, no parecen arrepentirse: «Dar al laboratorio de datos una gran libertad para actuar de forma independiente, para probar ideas y también para aceptar fracasos como parte de un proceso de aprendizaje, requiere confianza. Pero el impulso que creó es algo que no queremos perder», dijo el Dr. Jürgen Sturm, Director de Información.
  • La perspectiva de una autoridad externa. En este caso, los científicos de datos de la Universidad de Friburgo, hicieron una gran diferencia en el éxito del laboratorio. Como dijo Andreas Romer, vicepresidente de Innovación IT de ZF, «Ya no consideramos que la innovación sea un proceso interno en ZF. Para salvaguardar nuestro éxito futuro, debemos mirar más allá de los confines de nuestra empresa, construir asociaciones para aprender y también compartir conocimientos y experiencias».
  • Expertos en dominio. Si bien los científicos de datos aportaron conocimientos sobre métodos analíticos y enfoques del proyecto, su acceso a expertos de dominio era esencial. Estos expertos tenían que participar estrechamente en la respuesta a las preguntas relacionadas con el dominio que surgen una vez que el equipo está profundamente comprometido con el problema. Según nuestra experiencia, la capacidad y disponibilidad de expertos en dominio es el cuello de botella más común que bloquea el progreso de un proyecto de análisis de datos.

Problemas resueltos

Tres años después, podemos decir con confianza que ZF Data Lab es una valiosa adición a la empresa. Con este recurso dedicado, ZF ha sido capaz de resolver problemas que habían perplejo a los ingenieros de la compañía durante años. Aquí hay dos ejemplos:

  • Anillos de molienda rotos. Una fuente clave de interrupciones en la maquinaria de la línea de producción, una avería puede crear un desorden que puede tardar horas en limpiarse. Un cliente interno quería desarrollar un sistema de alerta temprana que pudiera indicar la probabilidad de una avería en el futuro, pero tenía datos desordenados, una señal débil (datos poco claros) y una verdad muy desequilibrada en el terreno (porque las averías ocurren solo ocasionalmente). A pesar de esas limitaciones, hemos sido capaces de crear un algoritmo que podría detectar interrupciones inminentes el 72% del tiempo, lejos de la perfección de cinco decimales, pero todavía suficiente para salvar a la compañía miles.
  • Cargas de alta demanda de energía. La gestión de las unidades de energía para regular la demanda de energía en momentos de consumo máximo es una forma eficaz de reducir los costos. Nuestro objetivo era desarrollar un agente automatizado de toma de decisiones basado en datos que proporcione recomendaciones de acción con el objetivo de reducir los picos de carga. Trabajando estrechamente con el departamento de energía, pudimos desarrollar un modelo de predicción de trabajo para evitar esos recargos de alta demanda. Siguiendo las recomendaciones del modelo debería reducir la carga máxima en 1-2 megavatios, por un valor aproximado de $100k — $200k por año.

Después de crecer durante tres años, ZF Data Lab se ha convertido en una especie de función especializada en I+D dentro de la empresa. Es un crisol de ideas y tecnologías, produciendo y evaluando pruebas de concepto, y descartando enfoques que no funcionan del todo. En última instancia, el laboratorio de datos no solo está ahí para resolver problemas, sino para ayudar a responder a la mayor pregunta de Big Data: ¿cómo competirá nuestra empresa en este mundo cada vez más digital?

Niklas Goby Tobias Brandt Dirk Neumann Via HBR.org