Manual del Pasajero, Capítulo. 3: Un Error de Piloto No Tira Abajo un Avión
Tal vez, sea uno de los temas más complejos de tratar en el mundo de la aviación sea el de la seguridad de la operación aérea. Uno se basa en estadísticas que muestran que volar es el medio de transporte más seguro. Y los números son absolutamente inexorables, y tranquilizadores. Los voy a mencionar en este primer párrafo, para que resulte fácil seguir leyendo: las probabilidades de morir en un accidente aéreo son de 1 en 11 millones. Para poner en contexto, las chances de morir en un accidente de tránsito son de 1 en 5000. Y las de morir atacado por un tiburón, 1 en 3 millones.
De hecho, las posibilidades de sufrir un accidente aéreo descienden dramáticamente, a medida que la industria madura y aumenta la automatización de los sistemas de navegación y asistencia. El entrenamiento de pilotos también aumenta, los factores de riesgo se reducen y las estrategias de detección temprana de incidentes crecen exponencialmente.

Ahora, toda esta evidencia sirve de poco ante el miedo razonable del pasajero. Cuando los medios de comunicación se suben al tren del morbo y perpetúan mitos desde la ignorancia o la mala intención, el pasajero promedio recibe toneladas de información incompleta, errónea o directamente mal intencionada.
Una de estas máximas nacidas y criadas en la mala leche es el término «Error de Piloto», como explicación única y final de cualquier accidente aéreo.
Bien, pero entonces lo que me quiere decir Diazpez es que no existe tal cosa como el Error de Piloto? No se equivocan nunca? Claro que sí. Obviamente que sí, porque el error es un elemento inseparable de la acción humana. Lo que es importante dejar claro más allá de cualquier alegato es lo siguiente:
Un accidente es una cadena de circunstancias anómalas en las que el error humano no es más que un eslabón.
La diferencia entre la aviación comercial y otras actividades es el tratamiento que se le da al error. El objetivo de la aviación no es evitar el error, porque es inevitable: lo que se hace es detectarlo en fase temprana, mitigar sus consecuencias y corregir las condiciones para evitar repeticiones. La aviación no desconoce el error. No se basa en el supuesto de la infabilidad, porque tal cosa no existe. No hay humano infalible, no hay sistema infalible. Entonces, el error se detecta, mitiga y corrige sumando controles. A la administración de esos controles se la llama Gestión del Riesgo. Y trabajando en el tema, a dos muchachos de la Universidad de Manchester se les ocurrió una idea.
Orlandella, Reason y la Teoría del Queso Suizo
En 1990, Dante Orlandella y James Reason presentaron un trabajo llamado «La Contribución de las Fallas Humanas Latentes a la Ruptura de Sistemas Complejos», en el que planteaban la hipótesis de que los accidentes ocurren en cuatro posibles dominios de fallo:
- Influencias de Organización
- Supervisión Insegura
- Condiciones Previas de las Acciones Inseguras
- Acciones Inseguras
Además, marca una diferencia entre fallas activas y latentes. Las fallas activas son aquellas que pueden relacionarse directamente con un accidente, como el error de piloto. Las fallas latentes son factores contribuyentes que están presentes por días, meses o años, hasta que se encuentran con una falla activa. Los primeros tres dominios están directamente representados en las fallas latentes. Las Acciones Inseguras, en las fallas activas.
La forma de defenderse contra estos fallos son procedimientos que sirvan de barrera entre los dominios. Como los procedimientos también tienen debilidades (porque son parte de este mismo modelo que contempla los fallos), decidieron graficarlo como rebanadas de queso suizo. Es decir, no son láminas perfectas: tienen agujeros, que varían de posición y tamaño a través de las rebanadas.
Normalmente, como los agujeros no están ubicados en la misma posición ni tienen el mismo tamaño, será imposible que veamos un túnel entre todas las rebanadas. Es decir, pueden fallar los controles, pero no todos al mismo tiempo.
Pero si por alguna razón se alinearan los agujeros en todas las rebanadas, podríamos tener un camino directo al accidente. Es decir, tendríamos una falla simultánea de todos los controles redundantes.
Las ideas de Orlandella/Reason fueron perfeccionadas por Shappell y Wiegmann en 2003, y las formularon en un modelo llamado HFACS (Human Factors Analysis and Classification System), que es la base del análisis de riesgo de la aviación en nuestros días. HFACS va un poco más allá, y subdivide los dominios del error en un árbol de factores:
En cada una de estas subdivisiones encontraremos cuestiones a analizar. Vamos por partes.
Nivel 1, Acciones Inseguras:
-Errores de Capacidad: Son los errores de ejecución de una tarea practicada y de rutina, relacionados con el procedimiento, entrenamiento o eficiencia que resultan en una situación insegura.
-Errores de Decisión: Cuando las acciones del operador proceden como se espera, pero el plan elegido se prueba inadecuado para conseguir el resultado final.
-Errores de Percepción: Cuando la información recibida por el operador es incorrecta y las decisiones se toman de acuerdo a esa información fallida.
– Violaciones: Desatención voluntaria de las reglas y regulaciones.
-Violaciones de Rutina: desvíos habituales de la operación que son tolerados por la autoridad controlante.
– Violaciones Excepcionales: Desvíos aislados del procedimiento, atípicos del individuo o de la autoridad controlante.
– Ambiente Tecnológico: factores de diseño de equipos y controles, automatización y características.