PathMBA Vault

Planificación estratégica

Cómo evitar una catástrofe

por Catherine H. Tinsley, Robin L. Dillon, Peter M. Madsen

Reimpresión: R1104G La mayoría de los fracasos empresariales —como los desastres de ingeniería, el mal funcionamiento de los productos y las crisis de RR.PP.— se presagian de cuasiaccidentes, decisiones cerradas que, si no hubiera tenido suerte de no haber intervenido, habrían tenido consecuencias mucho peores. El transbordador espacial Columbia , el fatal reingreso, el desastre de la plataforma petrolífera de BP en el Golfo, los aceleradores atascados de Toyota e incluso los fallos de antena del iPhone 4, todo ello fue precedido de acontecimientos que estuvieron a punto de fallar y que deberían haber avisado a los gerentes de una crisis inminente. El problema es que los cuasiaccidentes a menudo se pasan por alto o, perversamente, se ven como una señal de que los sistemas son resilientes y funcionan bien. Esto se debe a que los directivos están cegados por los sesgos cognitivos, sostienen los profesores de Georgetown Tinsley y Dillon, y Madsen de la Universidad Brigham Young. Siete estrategias pueden ayudar a los directivos a reconocer y aprender de los cuasiaccidentes: deben estar más alerta cuando las presiones de tiempo o costes son altas; estar atentos a las desviaciones de las operaciones con respecto a la norma y descubrir sus causas fundamentales; hacer que los responsables de la toma de decisiones rindan cuentas por los cuasiaccidentes; imaginarse los peores escenarios posibles; estar atentos a los cuasierrores disfrazados de éxitos; y recompensar a las personas por denunciar los cuasiaccidentes.

La mayoría de la gente piensa que los «cuasiaccidentes» son casos desgarradores que podrían haber sido mucho peores: cuando un bombero escapa de un edificio en llamas momentos antes de que se derrumbe o cuando un tornado se aleja milagrosamente de una ciudad a su paso. Eventos como estos son raras escapadas estrechas que nos dejan conmovidos y buscando lecciones.

Pero hay otra clase de cuasiaccidentes, que son mucho más comunes y perniciosos. Estos son los pequeños fracasos que, a menudo, no se comentan y que impregnan las actividades del día a día, pero que no causan ningún daño inmediato. La gente está programada para malinterpretar o ignorar las advertencias incluidas en estos fallos y, por eso, a menudo no se examinan o, perversamente, se ven como señales de que los sistemas son resilientes y de que las cosas van bien. Sin embargo, estos acontecimientos aparentemente inocuos suelen ser presagios: si las condiciones cambian un poco o si la suerte no interviene, estalla una crisis.

Piense en el desastre de la plataforma petrolífera de BP en el Golfo. Como estudio de caso sobre la anatomía de los cuasiaccidentes y las consecuencias de leerlos mal, es casi perfecto. En abril de 2010, se produjo una explosión de gas durante la cementación del Deepwater Horizon bueno. La explosión se encendió, mató a 11 personas, hundió la plataforma y provocó un enorme derrame submarino que tardaría meses en contenerse. Numerosas malas decisiones y condiciones peligrosas contribuyeron al desastre: los perforadores habían utilizado muy pocos centralizadores para colocar la tubería, el «lodo de perforación» lubricante se retiró demasiado pronto, los gerentes malinterpretaron los resultados de las pruebas vitales que habrían confirmado que los hidrocarburos se filtraban del pozo. Además, BP se basó en una versión antigua de un complejo dispositivo a prueba de fallos llamado dispositivo de prevención de reventones, que tenía un historial notoriamente irregular.

¿Por qué Transocean (el propietario de la plataforma), los ejecutivos de BP, los gerentes de la plataforma y el equipo de perforación pasaron por alto las señales de advertencia, a pesar de que el pozo había estado plagado de problemas técnicos desde el principio (los miembros de la tripulación lo llamaban «el pozo del infierno»)? Creemos que las partes interesadas se dejaron llevar por la autocomplacencia ante un catálogo de cuasiaccidentes anteriores en la industria, resultados exitosos en los que la suerte desempeñó un papel clave a la hora de evitar un desastre. Se estaban perforando un número cada vez mayor de pozos ultraprofundos, pero los derrames o muertes importantes de petróleo eran extremadamente raros. Y muchos pozos del Golfo de México habían sufrido pequeños reventones durante la cementación (docenas de ellos en las últimas dos décadas); sin embargo, en cada caso, los factores aleatorios (dirección favorable del viento, nadie soldaba cerca de la fuga en ese momento, por ejemplo) ayudaron a evitar una explosión. Each near miss, rather than raise alarms and prompt investigations, was taken as an indication that existing methods and safety procedures worked.

Durante los últimos siete años, hemos estudiado los cuasiaccidentes en docenas de empresas de todos los sectores, desde las telecomunicaciones hasta los automóviles, en la NASA y en simulaciones de laboratorio. Nuestra investigación revela un patrón: varios cuasierrores precedieron (y presagiaron) todos los desastres y crisis empresariales que estudiamos, y la mayoría de los errores se ignoraron o malinterpretaron. Nuestro trabajo también demuestra que los sesgos cognitivos conspiran para cegar a los directivos ante los cuasiaccidentes. Dos en particular nublan nuestro juicio. La primera es la «normalización de la desviación», la tendencia con el tiempo a aceptar las anomalías —especialmente las riesgosas— como algo normal. Piense en el creciente consuelo que un trabajador puede sentir al usar una escalera con un peldaño roto; cuantas más veces suba por la peligrosa escalera sin incidentes, más seguro se sentirá. Para una organización, esa normalización puede ser catastrófica. La socióloga de la Universidad de Columbia Diane Vaughan acuñó la frase en su libro La decisión de lanzamiento del Challenger para describir los comportamientos organizativos que permitieron que una anomalía mecánica evidente en el transbordador espacial pasara gradualmente a ser vista como un riesgo de vuelo normal, acabando con su tripulación. El segundo error cognitivo es el llamado sesgo de resultado. Cuando las personas observan resultados exitosos, tienden a centrarse en los resultados más que en los complejos procesos (a menudo invisibles) que los llevaron a ellos.

Reconocer y aprender de los cuasiaccidentes no es simplemente cuestión de prestar atención; de hecho, va en contra de la naturaleza humana. En este artículo, examinamos los cuasiaccidentes y revelamos cómo las empresas pueden detectarlos y aprender de ellos. Al verlos como lo que son (fracasos instructivos), los gerentes pueden aplicar sus lecciones para mejorar las operaciones y, potencialmente, evitar una catástrofe.

Las raíces de las crisis

Considere este revelador experimento: pedimos a estudiantes de negocios, personal de la NASA y contratistas de la industria espacial que evaluaran a un director de proyectos ficticio, Chris, que supervisaba el lanzamiento de una nave espacial no tripulada y había tomado una serie de decisiones, entre ellas saltarse la investigación de un posible defecto de diseño y renunciar a la revisión por pares, por falta de tiempo. A cada participante se le dio uno de los tres escenarios: la nave espacial se lanzó sin problemas y pudo transmitir datos (resultado exitoso); poco después del lanzamiento, la nave espacial tuvo un problema causado por un defecto de diseño, pero por la forma en que el Sol estaba alineado con el vehículo todavía podía transmitir datos (resultado casi errado); o la nave tuvo un problema causado por el defecto y, debido a la alineación casual del Sol, no pudo transmitir datos y se perdió (resultado del fracaso).

¿Cómo le fue a Chris? Los participantes tenían la misma probabilidad de elogiar su toma de decisiones, su capacidad de liderazgo y su misión en general en el caso de éxito que en el caso de casi error, aunque este último claramente solo lo logró por mala suerte. Cuando las personas observan un resultado exitoso, su tendencia natural es asumir que el proceso que lo llevó a él fue fundamentalmente sólido, incluso cuando se puede demostrar que no lo fue; de ahí la frase común «no se puede discutir el éxito». De hecho, puede y debe.

Los estudios muestran que los desastres organizacionales rara vez tienen una sola causa. Más bien, se inician por la interacción inesperada de varios errores humanos, fracasos tecnológicos o malas decisiones empresariales pequeños, a menudo aparentemente sin importancia. Estos errores latentes se combinan con las condiciones que permiten producir un fallo importante. Un error latente en una plataforma petrolífera puede ser un procedimiento de cementación que permite que el gas escape; las condiciones propicias pueden ser un día sin viento y un soldador trabajando cerca de la fuga. Juntos, el error latente y las condiciones propicias provocan una mortal tormenta de fuego. Los cuasiaccidentes se deben a las mismas condiciones previas, pero a falta de condiciones que las habiliten, solo producen pequeños fallos y, por lo tanto, pasan desapercibidos o se ignoran.

Los errores latentes suelen existir durante largos períodos de tiempo antes de que se combinen con las condiciones propicias para producir un fallo importante. Que una condición propicia transforme un cuasierror en una crisis depende generalmente del azar; por lo tanto, no tiene mucho sentido tratar de predecir o controlar las condiciones propicias. En cambio, las empresas deberían centrarse en identificar y corregir los errores latentes antes de que las circunstancias les permitan crear una crisis.

Pequeños cuasiaccidentes y pequeños fracasos

Hemos utilizado casos dramáticos, como derrames de petróleo y desastres de transbordadores, para ilustrar cómo los cuasiaccidentes pueden presagiar enormes calamidades. Pero los

Las explosiones de plataformas petrolíferas son un ejemplo dramático, pero los errores latentes y las condiciones favorables en los negocios a menudo se combinan para producir crisis menos espectaculares pero aun así costosas, quiebras corporativas que la atención a los errores latentes podría haber evitado. Veamos tres.

Mala manzana.

Tomemos como ejemplo la experiencia de Apple tras el lanzamiento del iPhone 4, en junio de 2010. Casi de inmediato, los clientes empezaron a quejarse de la pérdida de llamadas y de la mala potencia de la señal. La respuesta inicial de Apple fue culpar a los usuarios por sujetar mal el teléfono, cubriendo así la antena externa, y aconsejarles que «evitaran agarrar [el teléfono] en la esquina inferior izquierda». Cuando un usuario le preguntó sobre el problema en un foro web, el CEO Steve Jobs respondió a un correo electrónico en el que describía las llamadas interrumpidas como «ningún problema». Muchos clientes consideraron que la postura de Apple era arrogante e insultante y dieron a conocer su descontento en las redes sociales y los principales medios de comunicación. Varios presentaron demandas colectivas, incluida una demanda por «fraude por ocultación, negligencia, tergiversación intencional y diseño defectuoso». La crisis de reputación llegó a su punto culminante a mediados de julio, cuando Consumer Reports se negó a recomendar el iPhone 4 (había recomendado todas las versiones anteriores). Al final, Apple dio marcha atrás, reconociendo los errores de software y ofreciendo a los propietarios actualizaciones de software y fundas para iPhone para solucionar el problema de la antena.

Los errores latentes que subyacen a la crisis estaban presentes desde hacía mucho tiempo. Como demostró Jobs durante una conferencia de prensa, prácticamente todos los teléfonos inteligentes disminuyen la intensidad de la señal cuando los usuarios tocan la antena externa. Este defecto existía en los teléfonos anteriores, así como en los teléfonos de la competencia, durante años. El problema de la intensidad de la señal de los teléfonos también era bien conocido. Otros errores latentes surgieron a medida que la crisis cobraba impulso, en particular una estrategia evasiva de RR.PP. que provocó una reacción violenta.

El hecho de que los consumidores hayan aguantado los problemas del iPhone durante años sin hacer comentarios no fue señal de una estrategia sólida sino de un cuasi error continuo.

El hecho de que los consumidores hubieran soportado los problemas de rendimiento durante años sin hacer comentarios importantes no era señal de una estrategia exitosa sino de un cuasi error continuo. Cuando se combina con las condiciones propicias adecuadas: Consumer Reports«Una crítica fulminante y ampliamente citada y el creciente alcance de las redes sociales: estalló una crisis. Si Apple hubiera reconocido la paciencia de los consumidores como un cuasierror continuo y hubiera solucionado de forma proactiva los problemas técnicos de los teléfonos, podría haber evitado la crisis. Sospechamos que no fue así por el sesgo de normalización, que hizo que el fallo de la antena pareciera cada vez más aceptable; y por el sesgo de resultados, que llevó a los directivos a concluir que la falta de protestas por las deficiencias de los teléfonos reflejaba su propia buena estrategia, más que buena suerte.

Aviso de velocidad.

El 28 de agosto de 2009, el agente de la Patrulla de Caminos de California Mark Saylor y tres miembros de su familia murieron en un fuerte accidente al quedar atascado el acelerador del sedán Lexus en el que conducían, lo que aceleró el coche a más de 120 millas por hora. Una llamada al 911 desde un coche a exceso de velocidad capturó los horribles momentos anteriores al accidente y se repitió ampliamente en las noticias y las redes sociales.

Hasta ese momento, Toyota, que fabrica Lexus, había restado importancia a las más de 2000 quejas por aceleración involuntaria entre sus coches que había recibido desde 2001. La tragedia de Saylor obligó a la empresa a investigar seriamente el problema. Al final, Toyota retiró más de 6 millones de vehículos a finales de 2009 y principios de 2010 e interrumpió temporalmente la producción y la venta de ocho modelos, lo que supuso una pérdida estimada de 2000 millones de dólares solo en ventas en Norteamérica y un daño inconmensurable a su reputación.

Las quejas sobre la aceleración y el control de velocidad de los vehículos son comunes en todos los fabricantes de automóviles y, en la mayoría de los casos, según la Administración Nacional de Seguridad del Tráfico en las Carreteras, los problemas se deben a un error del conductor, no a un defecto del vehículo. Sin embargo, a partir de 2001, cuando Toyota introdujo un nuevo diseño de acelerador, las quejas por problemas de aceleración en los Toyota aumentaron considerablemente, mientras que esas quejas se mantuvieron relativamente constantes en otros fabricantes de automóviles (consulte la exposición «Problemas con los pedales de los Toyota»). Toyota podría haber evitado la crisis si hubiera observado esta desviación y hubiera reconocido las miles de quejas por lo que fueron, casi errores. También en este caso, la normalización de la desviación y el sesgo de resultado, junto con otros factores, conspiraron para ocultar las graves implicaciones de los cuasiaccidentes. Solo cuando se produjo una afección propicia —la tragedia de la familia Saylor y la consiguiente tormenta mediática—, el error latente provocó una crisis.

Malinterpretando las pruebas

Los errores en el proceso o en el diseño del producto a menudo se ignoran, incluso cuando las señales de advertencia exigen claramente que se tomen medidas. Cuantas más veces se

Negro y azul azabache.

Desde que comenzó a operar, en el año 2000, JetBlue Airways ha adoptado un enfoque agresivo ante el mal tiempo, cancelando proporcionalmente menos vuelos que otras compañías aéreas y ordenando a sus pilotos que se alejen de las puertas lo antes posible cuando hace mal tiempo para estar cerca de primera línea cuando las pistas estén despejadas para el despegue, incluso si eso significaba que los aviones cargados permanecieran algún tiempo en la pista. Durante varios años, esta política pareció funcionar. Los retrasos en la pista no duraron mucho y los clientes los aceptaron en general. Sin embargo, era una estrategia arriesgada, ya que exponía a la aerolínea al peligro de dejar varados a los pasajeros durante períodos prolongados si las condiciones empeoraban abruptamente.

El servicio de atención llegó el 14 de febrero de 2007. Una enorme tormenta de hielo en el aeropuerto internacional John F. Kennedy de Nueva York provocó trastornos generalizados, pero ninguna aerolínea se vio más afectada que JetBlue, cuyos asertivos pilotos se encontraron ahora atrapados en la pista (literalmente, en algunos casos, por la congelación de las ruedas) y sin puertas abiertas a las que regresar. Los pasajeros afligidos de varios aviones quedaron atrapados hasta 11 horas en cabinas sobrecalentadas y malolientes, con poca comida o agua. Los medios de comunicación publicaron airados relatos en primera persona sobre la terrible experiencia, y un castigado David Neeleman, el CEO de JetBlue, reconoció en CNBC: «De hecho, hicimos un trabajo horrible al hacer que nuestros clientes bajaran de esos aviones». La aerolínea informó que canceló más de 250 de sus 505 vuelos ese día, una proporción mucho mayor que la de cualquier otra compañía aérea. Perdió millones de dólares y desperdició la inestimable lealtad de los consumidores.

Para JetBlue, cada uno de los miles de vuelos que despegaron antes de la competición durante los retrasos meteorológicos anteriores estuvo a punto de fallar. A medida que la aerolínea seguía saliéndose con la suya en la arriesgada estrategia, los directivos que habían expresado su preocupación desde el principio por la forma en que la aerolínea gestionaba los retrasos de los vuelos se mostraron complacientes, a pesar de que los retrasos prolongados aumentaban. De hecho, la proporción de retrasos de dos horas o más de dos horas de JetBlue se triplicó aproximadamente entre 2003 y 2007, mientras que esos retrasos se mantuvieron bastante estables en otras compañías aéreas importantes de EE. UU. (consulte la exposición «Problemas en la pista de JetBlue»).

En lugar de darse cuenta de que un aumento drástico de los retrasos representaba un aumento drástico del riesgo, los gerentes de JetBlue solo vieron vuelos lanzados con éxito. Se necesitó una condición propicia, la feroz tormenta de hielo, para convertir el error latente en una crisis.

Reconocer y prevenir los cuasiaccidentes

Nuestra investigación sugiere siete estrategias que pueden ayudar a las organizaciones a reconocer los cuasierrores y a erradicar los errores latentes detrás de ellos. Hemos desarrollado muchas de estas estrategias en colaboración con la NASA, una organización que al principio tardó en reconocer la relevancia de los cuasiaccidentes, pero que ahora está desarrollando programas a nivel empresarial para identificarlos, aprender de ellos y prevenirlos.

1. Necesita alta presión.

Cuanto mayor sea la presión para cumplir los objetivos de rendimiento, como los plazos ajustados, los costes o los objetivos de producción, es más probable que los gerentes descarten las señales de casi error o las interpreten mal como señales de una buena toma de decisiones. Los directivos de BP sabían que la empresa incurría en sobrecostes de 1 millón de dólares al día en arrendamiento de plataformas y honorarios de contratista, lo que sin duda contribuyó a que no reconocieran las señales de advertencia.

El efecto de alta presión también contribuyó a la Columbia transbordador espacial desastre, en el que la espuma aislante que caía del depósito de combustible externo dañó el ala del transbordador durante el despegue y provocó que el transbordador se rompiera al volver a entrar en la atmósfera. Los directivos conocían el problema de la espuma desde el inicio del programa de transbordadores y se preocuparon por ello desde el principio, pero a medida que decenas de vuelos se realizaron sin ningún percance grave, empezaron a clasificar los choques con espuma como problemas de mantenimiento, más que como cuasiaccidentes. Este caso clásico de normalización de la desviación se vio exacerbado por la enorme presión política a la que estaba sometida la agencia en ese momento para completar el núcleo principal de la Estación Espacial Internacional. Los gerentes sabían que los retrasos en el transbordador retrasarían el proyecto de la estación espacial.

A pesar de la renovada preocupación por los ataques de espuma causados por un cuasiaccidente reciente particularmente dramático, y con una investigación en marcha, el Columbia se fue. Según la Junta de Investigación de Accidentes de Columbia, «la presión de mantener el horario de vuelo creó un ambiente de gestión que aceptaba cada vez más un rendimiento inferior a las especificaciones de varios componentes y sistemas».

Cuando las personas toman decisiones bajo presión, según muestran las investigaciones psicológicas, tienden a basarse en la heurística o en las reglas generales y, por lo tanto, se dejan influir más fácilmente por los sesgos. En entornos laborales de alta presión, los directivos deben esperar que las personas se dejen llevar más fácilmente por el sesgo de resultados, más probabilidades de normalizar la desviación y más propensas a creer que sus decisiones son acertadas. Las organizaciones deberían fomentar, o incluso exigir, a los empleados a que examinen sus decisiones durante los períodos de presión y se pregunten: «Si tuviera más tiempo y recursos, ¿tomaría la misma decisión?»

2. Aprenda de Deviations.

Como sugieren las crisis de Toyota y JetBlue, la respuesta de los directivos cuando algún aspecto de las operaciones se desvía de la norma suele ser recalibrar lo que consideran un riesgo aceptable. Nuestra investigación muestra que, en esos casos, los responsables de la toma de decisiones pueden entender claramente el riesgo estadístico que representa la desviación, pero preocuparse cada vez menos por ello.

Hemos visto este efecto con claridad en un laboratorio. Volviendo al programa espacial para obtener información, pedimos a los participantes del estudio que asumieran el control operativo de un rover marciano en una misión simulada. Cada mañana recibían un informe meteorológico y tenían que decidir si conducían o no. El segundo día, se enteraron de que había un 95% de probabilidades de que se produjera una tormenta de arena fuerte, que tenía un 40% de probabilidades de provocar un fallo catastrófico en las ruedas. A la mitad de los participantes se les dijo que el rover había atravesado con éxito tormentas de arena en el pasado (es decir, que había salido ileso en varios cuasiaccidentes anteriores); la otra mitad no tenía información sobre la suerte del rover en tormentas pasadas. Cuando llegó el momento de decidir si correr o no el riesgo de conducir, tres cuartas partes del grupo que casi falló optaron por seguir conduciendo; solo el 13% del otro grupo lo hizo. Ambos grupos sabían, y de hecho declararon que lo sabían, que el riesgo de fracaso era del 40%, pero el grupo que estuvo a punto de fallar se sentía mucho más cómodo con ese nivel de riesgo.

Los gerentes deben buscar las desviaciones operativas de la norma y examinar si sus razones para tolerar el riesgo asociado tienen fundamento. Las preguntas que podría hacerse serían: ¿Siempre nos hemos sentido cómodos con este nivel de riesgo? ¿Ha cambiado nuestra política con respecto a este riesgo con el tiempo?

3. Descubra las causas fundamentales.

Cuando los directivos identifican las desviaciones, su reflejo suele ser corregir el síntoma más que su causa. Esa fue la respuesta de Apple cuando al principio sugirió que los clientes solucionaran el problema de la antena cambiando la forma en que sujetaban el iPhone. La NASA también aprendió esta lección por las malas, durante su Mars Climate Orbiter 1998 misión. Cuando la nave espacial se dirigía a Marte, se desvió un poco de su rumbo cuatro veces; cada vez, los directivos hacían pequeños ajustes de trayectoria, pero no investigaron la causa de la deriva. Cuando la nave espacial de 200 millones de dólares se acercó a Marte, en lugar de entrar en órbita, se desintegró en la atmósfera. Solo entonces la NASA descubrió el error latente: los programadores habían utilizado el inglés en lugar de unidades métricas en la codificación de su software. Las correcciones de rumbo abordaron el síntoma del problema pero no la causa subyacente. Su aparente éxito hizo que los responsables de la toma de decisiones pensaran que el problema se había resuelto adecuadamente.

La industria de la salud ha hecho grandes avances en el aprendizaje de los cuasiaccidentes y ofrece un modelo para los demás. Se alienta cada vez más a los proveedores a denunciar los errores y cuasierrores para que las lecciones puedan extraerse y aplicarse. Un artículo en El hospitalario de hoy, por ejemplo, describe un cuasi accidente en el Delnor-Community Hospital de Ginebra, Illinois. Dos pacientes que compartían habitación de hospital tenían apellidos similares y se les recetaron medicamentos con nombres que suenan similares: Cytotec y Cytoxan. Confundido por las similitudes, una enfermera estuvo a punto de administrar uno de los medicamentos al paciente equivocado. Por suerte, se dio cuenta de su error a tiempo y presentó un informe detallando el cierre. El hospital separó inmediatamente a los pacientes y creó una política para impedir que los pacientes con nombres similares compartieran habitación en el futuro.

4. Exija responsabilidad.

Incluso cuando la gente es consciente de los cuasiaccidentes, tiende a rebajar su importancia. Una forma de limitar este efecto potencialmente peligroso es exigir a los directivos que justifiquen sus evaluaciones de los cuasiaccidentes.

¿Recuerda a Chris, el director ficticio de nuestro estudio que descuidó la debida diligencia en la supervisión de una misión espacial? Los participantes le dieron una puntuación igual de buena en el escenario de éxito y en el de casi error. Los evaluadores de Chris no parecieron darse cuenta de que el cuasi accidente fue de hecho un cuasi desastre. En una continuación de ese estudio, dijimos a otro grupo de gerentes y contratistas que tendrían que justificar su evaluación de Chris ante la alta dirección. Sabiendo que tendrían que explicar su valoración a los jefes, los que evaluaron el escenario de casi fallar juzgaron la actuación de Chris con la misma dureza que los que se enteraron de que la misión había fracasado, reconociendo, al parecer, que, en lugar de gestionar bien, simplemente había esquivado una bala.

5. Considere los peores escenarios posibles.

A menos que se le aconseje expresamente hacerlo, la gente tiende a no pensar en las posibles consecuencias negativas de los cuasiaccidentes. Los gerentes de Apple, por ejemplo, estaban al tanto de los problemas con las antenas del iPhone, pero probablemente no se habían imaginado lo grave que podría ser la reacción de los consumidores. Si hubieran considerado el peor de los casos, podrían haber evitado la crisis, sugiere nuestra investigación.

En un estudio, dijimos a los participantes que supusieran que un huracán inminente tenía un 30% de probabilidades de llegar a su casa y les preguntamos si evacuarían. Al igual que en nuestro estudio sobre un rover marciano, las personas a las que se les dijo que habían escapado del desastre en cuasiaccidentes anteriores tenían más probabilidades de correr el riesgo (en este caso, optaban por quedarse en casa). Sin embargo, cuando les dijimos a los participantes que suponían que, aunque su casa había sobrevivido a huracanes anteriores, la casa de un vecino había sido golpeada por un árbol durante uno de ellos, vieron las cosas de otra manera; este grupo tenía muchas más probabilidades de evacuar. Examinar los acontecimientos de cerca ayuda a las personas a distinguir entre los cuasierrores y los éxitos y, a menudo, ajustan su toma de decisiones en consecuencia.

Los gerentes de la oficina de continuidad empresarial de Walmart lo entienden claramente. Durante varios años antes del huracán Katrina, la oficina había evaluado cuidadosamente los cuasiaccidentes anteriores de sus tiendas e infraestructuras por huracanes y, basándose en ellos, había planificado un impacto directo en un área metropolitana en la que tenía una gran presencia. En los días anteriores a que el Katrina tocara tierra en Luisiana, la empresa amplió el personal de su centro de mando de emergencia de las seis a 10 personas habituales a más de 50, y almacenó alimentos, agua y suministros de emergencia en sus almacenes locales. Tras haber aprendido de cuasiaccidentes anteriores, Walmart es famoso por superar a los funcionarios locales y federales en respuesta al desastre. El alguacil de la parroquia de Jefferson, Harry Lee, dijo: «Si el gobierno estadounidense hubiera respondido como ha respondido Walmart, no estaríamos en esta crisis».

6. Evalúe los proyectos en cada etapa.

Cuando las cosas van mal, los gerentes suelen realizar autopsias para determinar las causas y evitar que se repitan. Sin embargo, cuando van bien, pocos hacen revisiones formales del éxito para captar sus lecciones. Como los cuasiaccidentes pueden parecer éxitos, a menudo escapan al escrutinio.

Este artículo aparece también en:

Las 10 lecturas imprescindibles de HBR sobre la toma de decisiones inteligentes

El director de conocimiento del Centro de Vuelos Espaciales Goddard de la NASA, Edward Rogers, instituyó un proceso de «pausa y aprendizaje» en el que los equipos discuten en cada etapa del proyecto lo que han aprendido. No solo cubren los percances, sino que también examinan expresamente los éxitos percibidos y las decisiones de diseño consideradas a lo largo del camino. Al examinar críticamente los proyectos mientras están en marcha, los equipos evitan el sesgo de resultados y es más probable que vean cuasierrores por lo que son. A estas sesiones les siguen talleres de intercambio de conocimientos en los que participan un grupo más amplio de equipos. Otros centros de la NASA, incluido el Laboratorio de Propulsión a Chorro, que gestiona el programa de Marte de la NASA, están iniciando experimentos similares. Según Rogers, la mayoría de los proyectos que han utilizado el proceso de pausar y aprender han descubierto cuasierrores, por lo general, defectos de diseño que no se habían detectado. «Casi todos los percances de la NASA se deben a alguna serie de pequeñas señales que pasaron desapercibidas en un momento crítico», afirma.

7. Recompensa ser dueño.

Ver y atender los cuasiaccidentes requiere un estado de alerta organizacional, pero ninguna cantidad de atención evitará el fracaso si la gente no está motivada para denunciar los cuasiaccidentes o, lo que es peor, se desanima a hacerlo. En muchas organizaciones, los empleados tienen motivos para guardar silencio sobre los fracasos y, en ese tipo de entornos, es probable que se guarden las sospechas sobre los cuasiaccidentes.

Los politólogos Martin Landau y Donald Chisholm describieron uno de esos casos que, aunque tuvo lugar en la cubierta de un buque de guerra, es relevante para cualquier organización. Un marinero alistado en un portaaviones descubrió durante un ejercicio de combate que había perdido una herramienta en cubierta. Sabía que una herramienta errante podía provocar una catástrofe si era absorbida por un motor a reacción, y también sabía que admitir el error podía detener el ejercicio y, potencialmente, castigarlo. Mientras la herramienta estuviera en paradero desconocido, cada despegue y aterrizaje exitosos sería un cuasi error, un resultado afortunado. Denunció el error, el ejercicio se detuvo y todos los aviones en vuelo fueron redirigidos a bases terrestres, con un coste importante.

En lugar de ser castigado por su error, el oficial al mando elogió al marinero en una ceremonia formal por su valentía al denunciarlo. Los líderes de cualquier organización deberían recompensar públicamente al personal por descubrir cuasiaccidentes, incluidos los suyos propios. 

Dos fuerzas conspiran para dificultar el aprendizaje de los cuasiaccidentes: los sesgos cognitivos hacen que sea difícil ver y, incluso cuando son visibles, los líderes tienden a no entender su significado. Por lo tanto, las organizaciones suelen no exponer ni corregir los errores latentes, incluso cuando el coste de hacerlo es pequeño, por lo que pierden oportunidades de mejora organizativa antes de que ocurra un desastre. Esta tendencia es en sí misma un tipo de fracaso organizacional, una falta de aprendizaje de datos «baratos». Salir a la luz los cuasiaccidentes y corregir las causas fundamentales es una de las inversiones más sólidas que puede hacer una organización.