PathMBA Vault

Costing

La innovación mata: Cómo las herramientas financieras destruyen su capacidad de hacer cosas nuevas

por Clayton M. Christensen, Stephen P. Kaufman, Willy C. Shih

La innovación mata: Cómo las herramientas financieras destruyen su capacidad de hacer cosas nuevas

Jonathan Knowles/Getty Images

Durante años nos hemos estado preguntando por qué a tantos gerentes inteligentes y trabajadores de empresas bien administradas les resulta imposible innovar con éxito. Nuestras investigaciones han descubierto a varios culpables, de los que hemos hablado en libros y artículos anteriores. Estas incluyen prestar demasiada atención a los clientes más rentables de la empresa (lo que pone en riesgo a los clientes menos exigentes) y crear nuevos productos que no ayuden a los clientes a hacer el trabajo que quieren hacer. Ahora nos gustaría decir que la aplicación equivocada de tres herramientas de análisis financiero es cómplice de la conspiración contra la innovación exitosa. Denunciamos delitos contra estos sospechosos:

  • El uso del flujo de caja descontado (DCF) y del valor actual neto (VAN) para evaluar las oportunidades de inversión hace que los gestores subestimen la rentabilidad y los beneficios reales de invertir en innovación.

  • La forma en que se tienen en cuenta los costes fijos y hundidos al evaluar las inversiones futuras confiere una ventaja injusta a los retadores y encadena a las empresas tradicionales que intentan responder a un ataque.

  • El énfasis en las ganancias por acción como el principal impulsor del precio de las acciones y, por lo tanto, de la creación de valor para los accionistas, con exclusión de casi todo lo demás, desvía recursos de las inversiones cuyo payoff supera el horizonte inmediato.

No son malas herramientas ni conceptos, nos apresuramos a añadir. Pero la forma en que se utilizan habitualmente al evaluar las inversiones crea un sesgo sistemático en contra de la innovación. Recomendaremos métodos alternativos que, según nuestra experiencia, puedan ayudar a los directivos a innovar con una visión mucho más astuta de cara al valor futuro. Sin embargo, nuestro objetivo principal es simplemente sacar a la luz estas preocupaciones con la esperanza de que otras personas con más experiencia puedan inspirarse para examinarlas y resolverlas.

Aplicar mal el flujo de caja descontado y el valor actual neto

La primera de las herramientas engañosas y mal aplicadas del análisis financiero es el método de descuento del flujo de caja para calcular el valor actual neto de una iniciativa. Descuentar un flujo futuro de flujos de caja en un «valor actual» supone que un inversor racional sería indiferente a tener un dólar hoy o a recibir dentro de unos años un dólar más los intereses o la rentabilidad que podría obtener al invertir ese dólar durante esos años. Con eso como principio operativo, tiene mucho sentido evaluar las inversiones dividiendo el dinero que se recibirá en los próximos años entre (1 + r) n, donde r es la tasa de descuento —la rentabilidad anual de invertir ese dinero— y n es el número de años durante los que la inversión podría generar esa rentabilidad.

Si bien las matemáticas de los descuentos son lógicamente impecables, los analistas suelen cometer dos errores que crean un sesgo antiinnovador. El primer error es suponer que el caso base de no invertir en la innovación —el escenario de no hacer nada con el que se comparan los flujos de caja de la innovación— es que la salud actual de la empresa persistirá indefinidamente en el futuro si no se realiza la inversión. Como se muestra en la exposición «La trampa del DCF», las matemáticas consideran la inversión de forma aislada y comparan el valor actual del flujo de caja de la innovación, menos los costes del proyecto, con el flujo de caja en ausencia de la inversión, que se supone que no cambia. Sin embargo, en la mayoría de los casos, las inversiones sostenidas y disruptivas de la competencia a lo largo del tiempo se traducen en presiones sobre los precios y los márgenes, cambios tecnológicos, pérdidas de cuota de mercado, caídas del volumen de ventas y una caída del precio de las acciones. Como señaló Eileen Rudden, de Boston Consulting Group, el flujo de caja más probable para la empresa en el escenario de no hacer nada no es la continuación del status quo. Es una disminución no lineal del rendimiento.

La trampa del DCF

La mayoría de los ejecutivos comparan los flujos de caja de la innovación con el escenario por defecto de no hacer nada, asumiendo —incorrectamente— que la salud actual de la

Es tentador, pero incorrecto, evaluar el valor de una inversión propuesta midiendo si nos hará mejor de lo que estamos ahora. Está mal porque, si las cosas se deterioran por sí solas, puede que nos vaya peor que ahora después de hacer la inversión propuesta, pero mejor de lo que nos habría ido sin ella. Philip Bobbitt llama a esta lógica la falacia de Parménides, en honor al lógico griego antiguo que afirmó haber demostrado que las condiciones en el mundo real deben ser necesariamente inmutables. Los analistas que intentan resumir el valor de una innovación en un número simple que puedan comparar con otros números simples suelen caer en la falacia de Parménides.

Es difícil pronosticar con precisión el flujo de caja de una inversión en innovación. Es aún más difícil pronosticar hasta qué punto el desempeño financiero de una empresa podría deteriorarse en ausencia de la inversión. Pero este análisis debe hacerse. Recuerde la respuesta que a los buenos economistas se les enseña a ofrecer a la pregunta «¿Cómo está?» Es «¿En relación con qué?» Es una pregunta crucial. Responder implica evaluar el valor proyectado de la innovación en función de una serie de escenarios, el más realista de los cuales suele ser un futuro competitivo y financiero que se deteriora.

El valor proyectado de una innovación debe evaluarse en función de una serie de escenarios, el más realista de los cuales suele ser un futuro competitivo y financiero que se deteriora.

La segunda serie de problemas con los cálculos del flujo de caja con descuentos se refiere a los errores de estimación. Los flujos de caja futuros, especialmente los generados por inversiones disruptivas, son difíciles de predecir. Los números de los «años fuera» pueden ser un tiro a ciegas. Para hacer frente a lo que no se puede saber, los analistas suelen proyectar un flujo de números año tras año durante tres o cinco años y, luego, «puntúan» calculando un valor terminal para contabilizar todo a partir de entonces. La lógica, por supuesto, es que las estimaciones interanuales para años lejanos son tan imprecisas que no son más precisas que un valor terminal. Para calcular un valor terminal, los analistas dividen el efectivo generado en el último año para el que han hecho una estimación específica entre ( r−g), la tasa de descuento menos la tasa de crecimiento proyectada de los flujos de caja a partir de ese momento. Luego vuelven a descontar ese número único al presente. Según nuestra experiencia, los valores terminales asumidos suelen representar más de la mitad del VAN total de un proyecto.

Las cifras de valor terminal, basadas como están en estimaciones de años anteriores, tienden a amplificar los errores contenidos en las hipótesis de principios de año. Lo que es aún más preocupante es que el valor terminal no permite hacer las pruebas de escenarios que hemos descrito anteriormente, comparando el resultado de esta inversión con el deterioro del rendimiento, que es el resultado más probable de no hacer nada. Sin embargo, debido a la inercia del mercado, a los ciclos de desarrollo de la competencia y al ritmo típico de la disrupción, a menudo es en el quinto año o más (momento en el que el valor terminal tiene en cuenta) que el declive de la empresa en el escenario de no hacer nada comienza a acelerarse.

Este artículo aparece también en:

Podría decirse que una de las causas principales de la persistente falta de inversión de las empresas en las innovaciones necesarias para mantener el éxito a largo plazo es el uso indiscriminado y demasiado simplificado del VAN como herramienta de análisis. Aun así, entendemos el deseo de cuantificar los flujos de efectivo que desafían la cuantificación y, luego, de destilar esos flujos en un solo número que pueda compararse con otros números individuales: es un intento de traducir las cacofónicas articulaciones del futuro a un idioma, los números, que todo el mundo pueda leer y comparar. Esperamos demostrar que los números no son el único idioma al que se puede traducir el valor de las inversiones futuras y que, de hecho, hay otros idiomas mejores que todos los miembros de un equipo directivo pueden entender.

Utilizar los costes fijos e irrecuperables de forma imprudente

El segundo paradigma ampliamente mal aplicado a la toma de decisiones financieras se refiere a los costes fijos e irrecuperables. Al evaluar un curso de acción futuro, según el argumento, los gerentes deben tener en cuenta únicamente los desembolsos de efectivo futuros o marginales (ya sea capital o gastos) que se requieren para una inversión en innovación, restarlos del efectivo marginal que es probable que entre y descontar el flujo neto resultante hasta el presente. Al igual que con el paradigma del DCF y el VAN, no hay nada malo en las matemáticas de este principio, siempre y cuando las capacidades necesarias para el éxito de ayer sean las adecuadas también para el de mañana. Sin embargo, cuando se necesitan nuevas capacidades para tener éxito en el futuro, este margen en los costes fijos y hundidos sesga a los gerentes a aprovechar los activos y las capacidades que probablemente queden obsoletos.

Para este análisis, definiremos los costes fijos como aquellos cuyo nivel es independiente del nivel de producción. Los costes fijos típicos incluyen los costes generales y administrativos: salarios y prestaciones, seguros, impuestos, etc. (Los costes variables incluyen cosas como las materias primas, las comisiones y el pago a los trabajadores temporales). Los costes irrecuperables son las partes de los costes fijos que se comprometen de forma irrevocable, que normalmente incluyen las inversiones en edificios y equipos de capital y los costes de I+D.

Un ejemplo de la industria siderúrgica ilustra cómo los costes fijos e irrecuperables dificultan que las empresas que pueden y deben invertir en nuevas capacidades lo hagan realmente. A finales de la década de 1960, las minifábricas de acero como Nucor y Chaparral comenzaron a revolucionar a las siderúrgicas integradas, como U.S. Steel (USX), captando clientes en los niveles de productos menos exigentes de cada mercado y, luego, avanzando sin descanso en el mercado de barras y varillas, hierro angular y vigas estructurales, utilizando su ventaja de coste del 20% para captar primero el mercado de barras y varillas, hierro angular y vigas estructurales. Para 1988, las minimolinas habían hecho que las fábricas integradas, de mayor coste, dejaran de fabricar productos de menor nivel, y Nucor había empezado a construir su primera minifábrica para laminar chapas de acero en Crawfordsville, Indiana. Nucor estimó que, con una inversión de 260 millones de dólares, podría vender 800 000 toneladas de acero al año a un precio de 350 dólares por tonelada. El coste en efectivo de producir una tonelada de chapa de acero en la fábrica de Crawfordsville sería de 270 dólares. Si se tuvo en cuenta el calendario de los flujos de caja, la tasa interna de rentabilidad de Nucor de esta inversión superó el 20%, considerablemente superior al coste de capital medio ponderado de Nucor.

El actual USX reconoció que los minimills constituían una grave amenaza. Mediante una nueva tecnología llamada producción continua de bandas, Nucor había entrado ahora en el mercado de la chapa de acero, aunque con un producto de calidad inferior, con un coste por tonelada significativamente inferior. Y el historial de mejoras vigilantes de Nucor significaba que la calidad de sus chapas de acero mejoraría con la experiencia de producción. A pesar de haberlo entendido, los ingenieros de USX ni siquiera se plantearon construir un minimolino totalmente nuevo como el que construyó Nucor. ¿El motivo? Parecía más rentable aprovechar la tecnología antigua que crear la nueva. Las fábricas actuales de USX, que utilizaban tecnología tradicional, tenían un 30% de exceso de capacidad y el coste marginal en efectivo de producir una tonelada extra de acero aprovechando ese exceso de capacidad era inferior a 50 dólares por tonelada. Cuando los analistas financieros del USX compararon el flujo de caja marginal de 300 dólares (350 dólares de ingresos menos el coste marginal de 50 dólares) con el flujo de caja promedio de 80 dólares por tonelada en una fábrica totalmente nueva, invertir en una nueva fábrica mínima de bajo coste no tenía sentido. Es más, las plantas del USX se depreciaron, por lo que el flujo de caja marginal de 300 dólares con una base de activos baja parecía muy atractivo.

Y ahí está el problema. Nucor, el atacante, no tenía inversiones con costes fijos o irrecuperables para calcular el coste marginal. Para Nucor, el coste total era el coste marginal. Crawfordsville era la única opción de su menú y, como el TIR era atractivo, la decisión fue sencilla. USX, por el contrario, tenía dos opciones en su menú: podía construir una planta totalmente nueva como la de Nucor con un coste medio por tonelada más bajo o podía utilizar más plenamente sus instalaciones actuales.

Entonces, ¿qué pasó? Nucor ha seguido mejorando su proceso, avanzando en el mercado y ganando cuota de mercado con una capacidad de producción continua de tiras más eficiente, mientras que USX se ha basado en las capacidades que se crearon para triunfar en el pasado. La estrategia de USX para maximizar el beneficio marginal, en otras palabras, hizo que la empresa no minimizara los costes medios a largo plazo. Como resultado, la empresa se ve atrapada en un ciclo cada vez mayor de compromiso con una estrategia fallida.

El atractivo de cualquier inversión solo puede evaluarse completamente si se compara con el atractivo de las alternativas correctas de un menú de inversiones. Cuando una empresa busca añadir una capacidad idéntica a la capacidad existente, tiene sentido comparar el coste marginal de aprovechar la antigua con el coste total de crear la nueva. Pero cuando se necesitan nuevas tecnologías o capacidades para la competitividad futura, marginar con respecto al pasado lo llevará por el camino equivocado. El argumento de que las decisiones de inversión deben basarse en los costes marginales siempre es correcto. Pero cuando se trata de crear nuevas capacidades, el coste marginal correspondiente es en realidad el coste total de crear las nuevas.

Si analizamos los costes fijos y hundidos desde esta perspectiva, se explican varias anomalías que hemos observado en nuestros estudios sobre la innovación. Los ejecutivos de las empresas establecidas se lamentan de lo caro que es crear nuevas marcas y desarrollar nuevos canales de venta y distribución, por lo que buscan aprovechar sus marcas y estructuras actuales. Los participantes, por el contrario, simplemente crean otros nuevos. El problema para el titular no es que el retador pueda gastar más que él, sino que el retador se ahorra el dilema de tener que elegir entre las opciones de coste total y coste marginal. Hemos observado en repetidas ocasiones que las principales empresas establecidas aplican mal la doctrina de los costes fijos y irrecuperables y se basan en activos y capacidades que se forjaron en el pasado para tener éxito en el futuro. Al hacerlo, no realizan las mismas inversiones que los participantes y los atacantes consideran rentables.

Una práctica financiera relacionada que se utiliza indebidamente y que sesga a los gestores en contra de invertir en las capacidades futuras necesarias es la de utilizar la estimación de un activo de capital utilizable vida útil como el período durante el que debe depreciarse. Esto provoca problemas cuando la vida útil del activo es superior a su competitivo de por vida. Los gestores que deprecian los activos según un calendario más gradual de vida útil suelen enfrentarse a amortizaciones masivas cuando esos activos quedan obsoletos desde el punto de vista competitivo y es necesario sustituirlos por activos de nueva tecnología. Esta era la situación a la que se enfrentaban las siderúrgicas integradas. Cuando crear nuevas capacidades implica cancelar las antiguas, las empresas tradicionales se enfrentan a un impacto en las ganancias trimestrales que los disruptivos que entran en la industria no. Sabiendo que los mercados bursátiles los castigarán por la cancelación, los gestores podrían estancarse en la adopción de las nuevas tecnologías.

Sabiendo que los mercados bursátiles los castigarán por la cancelación de activos obsoletos, los gestores pueden estancarse en la adopción de la nueva tecnología.

Esto puede ser parte de la razón del drástico aumento de las compras de capital privado en la última década y del reciente aumento del interés por las industrias orientadas a la tecnología. A medida que las disrupciones siguen acortando la vida competitiva de las principales inversiones realizadas hace solo tres o cinco años, cada vez más empresas necesitan amortizar sus activos o reestructurar significativamente sus modelos de negocio. Se trata de cambios desgarradores que a menudo se realizan con mayor facilidad y comodidad fuera del resplandor de los mercados públicos.

¿Cuál es la solución a este dilema? Michael Mauboussin, de Legg Mason Capital Management, sugiere que es para valorar estrategias, no proyectos. Cuando un atacante gana terreno, los ejecutivos de las empresas tradicionales tienen que hacer sus análisis de inversiones de la misma manera que los atacantes, centrándose en las estrategias que garantizarán la competitividad a largo plazo. Es la única manera en que pueden ver el mundo como lo ven los atacantes y la única manera de predecir las consecuencias de no invertir.

Ningún gerente decidiría conscientemente destruir una empresa aprovechando las competencias del pasado e ignorando las que se requieren para el futuro. Sin embargo, esto es precisamente lo que hacen muchos de ellos. Lo hacen porque la estrategia y las finanzas se enseñaban como temas distintos en la escuela de negocios. Sus profesores de modelización financiera aludieron a la importancia de la estrategia y, de vez en cuando, sus profesores de estrategia se refirieron a la creación de valor, pero dedicaron poco tiempo a una integración cuidadosa de ambas. Esta bifurcación persiste en la mayoría de las empresas, donde las responsabilidades de estrategia y finanzas recaen en los diferentes vicepresidentes. Como la estrategia real de una empresa se define por el flujo de proyectos en los que invierte o no, la financiación y la estrategia deben estudiarse y practicarse de forma integrada.

Centrarse miópicamente en las ganancias por acción

Un tercer paradigma financiero que lleva a las empresas establecidas a invertir poco en innovación es el énfasis en las ganancias por acción como el principal impulsor del precio de las acciones y, por lo tanto, de la creación de valor para los accionistas. Los directivos están bajo tanta presión, desde varios puntos de vista, para centrarse en la rentabilidad de las acciones a corto plazo que prestan menos atención a la salud a largo plazo de la empresa de la que podrían, hasta el punto de que se muestran reacios a invertir en innovaciones que no den sus frutos de forma inmediata.

¿De dónde viene la presión? Para responder a esa pregunta, tenemos que analizar brevemente la teoría del agente principal, la doctrina de que los intereses de los accionistas (directores) no están alineados con los de los gerentes (agentes). Sin incentivos financieros poderosos que centren los intereses de los directores y los agentes en maximizar el valor para los accionistas, se piensa que los agentes perseguirán otros objetivos y, en el proceso, pueden dejar de prestar suficiente atención a la eficiencia o desperdiciar las inversiones de capital en proyectos favoritos, a expensas de los beneficios que deberían acumular los directores.

Ese conflicto de incentivos se ha enseñado de manera tan agresiva que la compensación de la mayoría de los altos ejecutivos de las empresas que cotizan en bolsa ahora se destina en gran medida a los salarios y se destina a paquetes que recompensan las mejoras en el precio de las acciones. Eso, a su vez, ha llevado a centrarse casi exclusivamente en las ganancias por acción y el crecimiento del BPA, ya que el métrica del desempeño corporativo. Si bien todos reconocemos la importancia de otros indicadores, como la posición en el mercado, las marcas, el capital intelectual y la competitividad a largo plazo, la tendencia es utilizar un indicador cuantitativo simple que se compare fácilmente de un período a otro y entre empresas. Y dado que el crecimiento de la EPS es un importante impulsor de la mejora del precio de las acciones a corto plazo, los gestores están sesgados en contra de las inversiones que comprometan la EPS a corto plazo. Muchos deciden, en cambio, utilizar el exceso de efectivo del balance para volver a comprar las acciones de la empresa con el pretexto de «devolver el dinero a los accionistas». Pero aunque la contratación del número de acciones aumenta las ganancias por acción, a veces de forma bastante dramática, no contribuye en nada a mejorar el valor subyacente de la empresa e incluso puede perjudicarla al restringir el flujo de caja disponible para invertir en productos y modelos de negocio potencialmente disruptivos. De hecho, algunos han considerado los paquetes de compensación de incentivos basados en el precio de las acciones como uno de los principales impulsores de la manipulación del precio de las acciones que acaparó tantos titulares empresariales a principios de la década de 2000.

El enfoque miope en la EPS no tiene que ver solo con el dinero. Los directores ejecutivos y directores corporativos que se preocupan más por su reputación que por acumular más riqueza también se centran en los precios de las acciones y en las medidas de rendimiento a corto plazo, como los beneficios trimestrales. Saben que, en gran medida, la percepción de los demás sobre su éxito está ligada a esas cifras, lo que lleva a un ciclo de obsesión que se refuerza a sí mismo. Este ciclo de comportamiento se amplifica cuando hay una «sorpresa de ganancias». Los precios de las acciones a corto plazo responden positivamente a las sorpresas alcistas de beneficios (y negativamente a las sorpresas a la baja), por lo que los inversores no tienen ningún incentivo para buscar medidas racionales del rendimiento a largo plazo. Por el contrario, se les recompensa por seguir el modelo a corto plazo del mercado.

El activo mercado de compras apalancadas ha reforzado aún más el enfoque en el BPA. Las empresas que se considera que no han logrado maximizar el valor, como lo demuestra la caída del precio de las acciones, son vulnerables a las propuestas de personas ajenas, incluidos los asaltantes corporativos o los fondos de cobertura que buscan aumentar su cotización bursátil a corto plazo poniendo una empresa en juego o sustituyendo al CEO. Por lo tanto, si bien en las últimas dos décadas se ha producido un aumento drástico en la proporción de la compensación de los directores ejecutivos vinculada al precio de las acciones (y un aumento impresionante de la compensación de los directores ejecutivos en general), han sido testigos de una disminución concomitante de la permanencia media de los directores ejecutivos. Ya sea que crea que los directores ejecutivos están más motivados por la zanahoria (importantes aumentos en la compensación y el patrimonio) o por el palo (la amenaza de que la empresa se venda o sea sustituida), no le sorprenderá ver que tantos directores ejecutivos se centran en los beneficios actuales por acción como el mejor indicador del precio de las acciones, a veces excluyendo cualquier otra cosa. Un estudio incluso mostró que los altos ejecutivos estaban dispuestos rutinariamente a sacrificar el valor accionarial a largo plazo para cumplir las expectativas de beneficios o para suavizar los beneficios declarados.

Sospechamos que la teoría del agente principal se aplica mal. La mayoría de los directores tradicionales —con lo que nos referimos a los accionistas— no tienen incentivos por sí solos para velar por la salud a largo plazo de una empresa. Más del 90% de las acciones de las sociedades que cotizan en bolsa en los Estados Unidos pertenecen a carteras de fondos de inversión, fondos de pensiones y fondos de cobertura. El período medio de tenencia de las acciones de estas carteras es inferior a 10 meses, lo que nos lleva a preferir el término «propietario de acciones» como descripción más precisa que «accionista». En cuanto a los agentes, creemos que la mayoría de los ejecutivos trabajan sin descanso, dedicando su corazón y su mente a su trabajo, no porque se les pague un incentivo para hacerlo, sino porque les encanta lo que hacen. Vincular la compensación de los ejecutivos a los precios de las acciones, por lo tanto, no afecta a la intensidad, la energía o la inteligencia con la que los ejecutivos actúan. Pero sí dirige sus esfuerzos hacia actividades cuyo impacto se puede sentir dentro del horizonte de tenencia del accionista típico y dentro del horizonte de medición del incentivo, ambos de menos de un año.

Irónicamente, la mayoría de los supuestos directores actuales son en sí mismos agentes, agentes de fondos de inversión, carteras de inversiones, dotaciones y programas de jubilación de otras personas. Para estos agentes, la empresa en la que invierten no tiene ningún interés ni valor inherente más allá de proporcionar una plataforma para mejorar la métrica financiera a corto plazo mediante la que se mide el rendimiento de sus fondos y se determina su propia compensación. Y, por último, gran pero triste ironía, los verdaderos directores (las personas que invierten su dinero en fondos de inversión y planes de pensiones, a veces a través de otra capa de agentes) son con frecuencia las mismas personas cuyo empleo a largo plazo se ve en peligro cuando centrarse en la EPS a corto plazo actúa para restringir las inversiones en oportunidades de crecimiento innovadoras. Sugerimos que la teoría del agente principal está obsoleta en este contexto. Lo que realmente tenemos es un agente-agente problema, en el que los deseos y objetivos del agente para los propietarios de las acciones compiten con los deseos y objetivos de los agentes que dirigen la empresa. Los incentivos siguen desalineados, pero los directivos no deben capitular sobre la base de un paradigma obsoleto.

Procesos que apoyan (o sabotean) la innovación

Como hemos visto, los directivos de las empresas establecidas utilizan métodos analíticos que hacen que las inversiones en innovación sean extremadamente difíciles de justificar. Resulta que el sistema más común para dar luz verde a los proyectos de inversión solo refuerza los defectos inherentes a las herramientas y los dogmas discutidos anteriormente.

Innovación escalonada.

La mayoría de las empresas establecidas comienzan por considerar una amplia gama de posibles innovaciones; van sacando las ideas menos viables, paso a paso, hasta que solo quedan las más prometedoras. La mayoría de estos procesos incluyen tres etapas: viabilidad, desarrollo e lanzamiento. Los escenarios están separados por puertas de escenario: reuniones de revisión en las que los equipos del proyecto informan a los altos directivos de lo que han logrado. Sobre la base de este progreso y del potencial del proyecto, los guardianes aprueban la aprobación de la iniciativa a la siguiente fase, la devuelven a la fase anterior para seguir trabajando o la cancelan.

Muchos vendedores e ingenieros ven con desdén el proceso de desarrollo por etapas. ¿Por qué? Porque los criterios clave de decisión en cada puerta son el tamaño de los ingresos y beneficios proyectados del producto y los riesgos asociados. Los ingresos de los productos que mejoran gradualmente con respecto a los que la empresa vende actualmente se pueden cuantificar de forma creíble. Pero las propuestas para generar crecimiento mediante el aprovechamiento de tecnologías, productos o modelos de negocio potencialmente disruptivos no pueden impulsarse con cifras concretas. Al principio, sus mercados son pequeños y, por lo general, los ingresos importantes no se materializan hasta dentro de varios años. Cuando estos proyectos se enfrentan a innovaciones progresivas y sostenibles en la batalla por la financiación, los graduales salen adelante mientras que los que parecen más riesgosos se retrasan o mueren.

El proceso en sí tiene dos graves inconvenientes. En primer lugar, los equipos de proyecto generalmente saben lo buenas que deben ser las proyecciones (como el VAN) para obtener financiación, y solo se necesitan nanosegundos para modificar una suposición y ejecutar otro escenario completo para que un proyecto vacilante supere el ritmo límite. Si, como suele ocurrir, hay de ocho a 10 suposiciones en las que se basa el modelo financiero, cambiar solo unas pocas de ellas solo un 2% o un 3% cada una podría funcionar. Entonces es difícil para los altos directivos que actúan como guardianes discernir cuáles son las suposiciones más importantes, y mucho menos juzgar si son realistas.

El segundo inconveniente es que el sistema stage-gate supone que la estrategia propuesta es la correcta. Una vez que se aprueba, desarrolla y lanza una innovación, lo único que queda es una ejecución hábil. Si, tras su lanzamiento, un producto no cumple con creces las previsiones (y el 75% de ellas sí), se cancela. El problema es que, excepto en el caso de las innovaciones graduales, la estrategia correcta (especialmente el trabajo que el cliente quiere que se haga) no puede conocerse del todo de antemano. Debe emerger y luego refinarse.

El sistema por etapas no es adecuado para la tarea de evaluar las innovaciones cuyo propósito es crear nuevas empresas en crecimiento, pero la mayoría de las empresas siguen siguiéndolo simplemente porque no ven otra alternativa.

Planificación basada en el descubrimiento.

Sin embargo, por suerte, hay sistemas alternativos diseñados específicamente para apoyar las inversiones inteligentes en el crecimiento futuro. Uno de esos procesos, que Rita Gunther McGrath e Ian MacMillan llaman planificación basada en el descubrimiento, tiene el potencial de mejorar considerablemente la tasa de éxito. La planificación basada en el descubrimiento básicamente invierte la secuencia de algunos de los pasos del proceso por etapas. Su lógica es elegantemente simple. Si todos los equipos del proyecto saben lo bien que deben ser las cifras para obtener financiación, ¿por qué recurrir a la farsa de hacer y revisar las suposiciones para fabricar un conjunto de números aceptable? ¿Por qué no poner la declaración de ingresos, ingresos y flujo de caja mínimamente aceptables como documento estándar de la primera página de entrada? La segunda página puede entonces plantear las cuestiones críticas: «Está bien. Todos sabemos que así de bien tienen que verse los números. ¿Qué conjunto de suposiciones deben resultar ciertas para que estas cifras se materialicen?» El equipo del proyecto crea a partir de ese análisis una lista de suposiciones, una lista de cosas que tienen que resultar ciertas para que el proyecto tenga éxito. Los artículos de la lista están ordenados por rango, con los asesinos de ofertas y las suposiciones que se pueden poner a prueba con poco gasto en la parte superior. McGrath y MacMillan lo llaman «estado de resultados inverso».

Este artículo aparece también en:

Cuando un proyecto entra en una nueva fase, la lista de comprobación de suposiciones se utiliza como base del plan del proyecto para esa fase. Sin embargo, este no es un plan de ejecución. Es un plan para aprender—para comprobar de la forma más rápida y con el menor coste posible si las suposiciones en las que se basa el éxito son realmente válidas. Si se demuestra que una suposición crítica no es válida, el equipo del proyecto debe revisar su estrategia hasta que las suposiciones en las que se basa sean todas plausibles. Si ningún conjunto de suposiciones plausibles apoya los argumentos a favor del éxito, el proyecto muere.

La planificación gradual tradicional ofusca las suposiciones y arroja luz sobre las proyecciones financieras. Pero no hay necesidad de centrar la atención analítica en las cifras, porque la conveniencia de números atractivos nunca ha sido la cuestión. La planificación basada en el descubrimiento pone de relieve los lugares en los que la alta dirección necesita iluminación, las suposiciones que constituyen las principales incertidumbres. La mayoría de las veces, el fracaso en la innovación se basa en no haber hecho una pregunta importante, más que en haber llegado a una respuesta incorrecta.

La mayoría de las veces, el fracaso en la innovación se basa en no haber hecho una pregunta importante, más que en haber llegado a una respuesta incorrecta.

Hoy en día, procesos como la planificación basada en el descubrimiento se utilizan con más frecuencia en entornos empresariales que en las grandes empresas que los necesitan desesperadamente. Esperamos que, al relatar los puntos fuertes de uno de esos sistemas, persuadamos a las empresas establecidas de que vuelvan a evaluar su forma de tomar decisiones sobre los proyectos de inversión.• • •

Seguimos descubriendo que la razón principal por la que las empresas establecidas no innovan es que los gerentes no tienen buenas herramientas que les ayuden a entender los mercados, crear marcas, encontrar clientes, seleccionar empleados, organizar equipos y desarrollar la estrategia. Algunas de las herramientas que se utilizan normalmente para el análisis financiero y la toma de decisiones sobre las inversiones distorsionan el valor, la importancia y la probabilidad de éxito de las inversiones en innovación. Hay una forma mejor para que los equipos directivos hagan crecer sus empresas. Pero necesitarán el coraje para desafiar algunos de los paradigmas del análisis financiero y la voluntad de desarrollar metodologías alternativas.