ERRORES HUMANOS: APRENDER DESDE EL ÉXITO

Por: Juan Carlos Lozano

A pesar de los magníficos niveles de seguridad del transporte aéreo, se siguen identificando “fallos humanos” cada vez que se produce un accidente. Es más, estamos asistiendo a situaciones en las que los profesionales (muchas veces, los pilotos) cometen errores inesperados o que no se deberían corresponder con su entrenamiento y experiencia.

Se han invertido muchos recursos en estudiar el comportamiento humano en el ámbito de la aviación. Se han logrado avances en el conocimiento de los procesos de toma de decisiones, la fatiga o el trabajo en equipo. Se han desarrollado herramientas muy efectivas como TEM (Threat Error Management) que consiguen evitar o mitigar los errores humanos que cada día se cometen.

critical-thinking-3-638

También los Sistemas de Gestión de la Seguridad Operacional (SMS) deberían estar preparados para detectar aquellas actuaciones humanas que puedan generar riesgos inaceptables.

Pero parece que no es suficiente.

Observamos cómo se producen accidentes que tienen un componente de error humano para el que, al menos aparentemente, cuesta encontrar una explicación.

Y quizás deberíamos preguntarnos, ¿estamos analizando correctamente la situación? ¿Es el rendimiento de los seres humanos tan malo como nos muestran algunos accidentes?

Erik Hollnagel, en la publicación Safety-I and Safety-II: The Past and Future of Safety Management hace la siguiente reflexión:

Si cuando algo va mal, es decir aproximadamente 1 de cada 10.000 eventos de seguridad, los seres humanos son identificados como los responsables en el 80%-90% de los casos. ¿No deberíamos pensar que, cuando todo va bien (en los 9.999 casos restantes) son los humanos también responsables de ello?

error1
(“From Safety-I to Safety-II: A White Paper”.EUROCONTROL)

La aviación es una de las industrias más reguladas del mundo. Los procedimientos operacionales forman parte de nuestro quehacer diario. Pero también sabemos que los procedimientos 19/09/2015son válidos en aquellas situaciones que han sido previstas con anterioridad.

Cada día se producen miles de vuelos de manera segura. En muchos de esos vuelos ocurren cosas imprevistas que son solucionadas con una mezcla de conocimiento y experiencia y que quedan, en la mayor parte de los casos, “invisibles” al sistema.

En pocas ocasiones se informa de una situación que se ha solucionado sin más efectos que una pequeña descarga de adrenalina y algo de buen hacer.

Y sin embargo es de esos eventos de donde podríamos sacar una valiosa información.

Utilizando el símil financiero, estamos “dejando de ganar” (en este caso, conocimiento) al no reflejar en nuestras estadísticas esas acciones que “no nos hacen perder”.

Habrá quien diga que nuestros sistemas de reporte no están preparados para semejante tarea. Esto es una verdad a medias.

flight_safety

Algunos informes de accidentes aéreos son un perfecto ejemplo. Es tal la necesidad de “encontrar responsables” que muchas veces se focaliza la atención exclusivamente en los aspectos negativos y se pasan por alto acciones que ni fueron entrenadas previamente ni habían sido tenidas en cuenta en ningún análisis de riesgos previo.

¿Alguien recuerda qué conclusiones positivas se han obtenido de sucesos como el amerizaje en el Rio Hudson de un A320 de US Airways, del reventón de un motor del A380 de Qantas sobrevolando la Isla de Batam o de la pérdida de control de los motores por contaminación de combustible de un A330 de Cathay Pacific?

vh-oqa-fig1

Más allá de algunos elogios y algunas recomendaciones de seguridad (destinadas a solucionar problemas más que a aprender de la experiencia), nada valioso se ha obtenido de unas actuaciones humanas que fueron, como mínimo, extraordinarias.

Y hablamos sólo de algunos casos aislados.

Las operaciones diarias nos dan la oportunidad de “aprender desde el éxito” en vez de hacerlo desde el fracaso y la presión por encontrar a los responsables.

En palabras de la Doctora Kathy Abbott, Asesora Científica y Técnica de Factores Humanos de la FAA:

“Los pilotos vuelan miles de horas cada día de manera segura y eficiente. Tienen la habilidad de adaptarse a las circunstancias operacionales, gestionan amenazas operacionales, detectan y mitigan errores de otros en el sistema, mitigan las limitaciones y fallos de los equipos, y aportan la flexibilidad y adaptabilidad para enfrentarse con situaciones no rutinarias e inesperadas.”

(“Some lessons learned about pilots and flight deck automated systems”.Hindsight 2.0. Winter 2014)

Quizás debemos dejar de mirar tanto al ser humano de manera negativa y observar más las debilidades del sistema.

Esperar que los seres humanos vamos a actuar siempre de manera perfecta es una pobre aportación a la seguridad operacional.

Acerca de Juan Carlos Lozano Pacios

Juan Carlos Lozano Pacios
Juan Carlos es Piloto de Líneas Aéreas en activo así como investigador de accidentes aéreos acreditado por IFALPA (International Federation of AirlinePilots’ Associations). Es miembro del Panel de expertos en Gestión de la Seguridad Operacional de la OACI (SMP) y ha sido miembro del Comité Asesor del Director Ejecutivo de la Agencia Europea de Seguridad Aérea (EASA). En la actualidad, colabora con AloftAviationConsulting como Experto en Operaciones Aéreas y SMS.

2 Comentarios

  1. Yassir chaves

    Gracias, muy interesante

  2. Lorenzo Mora Rodríguez

    Me parece muy buen artículo. Efectivamente es así. Pero no debemos olvidar el error en el que nos mete esa línea de pensamiento. Algo similar ocurre con los accidentes de tráfico cuando se dice que si el 20% de los fallecidos en accidente de tráfico no llevaban el cinturón de seguridad, se demuestra que llevar el cinturón abrochado es perjudicial porque mueren el 80%. ¡¡¡¡¡Cuidado con esto!!!!