HOME NEWS TIEMPO |
||
ASOCIATE | COMISIONES DE TRABAJO |
APHA | EVENTOS | SALA de PILOTOS | LINKS | OPORTUNIDADES |
Accidentes por Error Humano, Roberto Julio Gómez Compartimos el artículo que escribió Julio relacionado con la Seguridad Operacional. Accidentes por Error Humano Leyendo el Documento 9859 "Manual de gestión de la seguridad operacional" de la OACI en el Capítulo 7; punto 7.10 encontré que establece la diferencia entre consignas de seguridad operacional y principios de seguridad operacional.
Me pareció muy interesante la forma de abordarlo. En definitiva, para el documento, los principios tienen la característica de enunciar claramente las orientaciones, las cuales están basadas en conocimientos sólidos y proporcionan declaraciones globales a la hora de saber cómo realizar una tarea en particular. Orientaciones en base a conocimiento. Por su parte las consignas se basan en creencias populares convencionales y algunas veces cuestionables. Resumen: conocimiento ≠ creencia
Pero estas definiciones no son el fin de esta nota. Avanza el documento en el análisis de algunas consignas consideradas populares: "En aviación, la seguridad operacional es lo primero", "La seguridad operacional es responsabilidad de todos", "Si no está roto ¿por qué repararlo?, "Si cree que la seguridad operacional es costosa, haga la prueba con un accidente" y "el 70% de los accidentes se deben a errores humanos". A esta última me voy a referir. Si observamos las imágenes superiores parece una convención social que la medida justa de la participación del error humano en el total de los accidentes es del 70%. En el punto 7.10.6 del mencionado documento se explica lo siguiente:
Esta consigna ha sido dejada para el final porque muestra claramente cuan engañosas pueden ser las consignas de seguridad. Consideremos el sistema de la aviación: los humanos conciben el plan del sistema y, una vez satisfechos con lo que han concebido, se dedican a diseñarlo. Luego los humanos construyen el sistema y cuando el sistema está funcional, los humanos lo hacen trabajar. A fin de mostrar el comportamiento necesario para conseguir los objetivos del sistema, los humanos capacitan a otros humanos para hacer que el sistema trabaje día tras día. Los humanos adoptan decisiones estratégicas y tácticas sobre la actuación del sistema, y cuando se identifican los peligros, los humanos elaboran e introducen las contramedidas necesarias para proteger al sistema de tales peligros. En términos sencillos, los humanos diseñan, fabrican, capacitan, operan, gestionan y defienden el sistema. Por consiguiente, cuando el sistema falla, se debe necesariamente a un error humano. Desde esta perspectiva, y dependiendo del nivel de observación, es claro que el 100% de los accidentes se deben a errores humanos"
Coincido con la postura, cuando un sistema falla se debe a un error humano. Luego deberemos investigar cuales fueron esos errores para que no se vuelvan a repetir. Si un material, un procedimiento, un operador, un controlador, un piloto, etc., falló es porque en algún momento un humano no realizó una verificación correctamente, o porque en su proceso de fabricación no fue detectado que la pieza estaba defectuosa, o la instrucción no fue la adecuada, o la capacitación tampoco fue adecuada, etc. El tema al que apunto en esta breve nota es que no nos quedemos anclados en un porcentaje de participación humana porque el humano participa en todos los aspectos, ya sea de diseño u operación. Más importante que un porcentaje indicativo del error es como hacer para que los errores propios de todo sistema se reduzcan, y poder detectarlos antes. Los encontramos en varios documentos como "peligros latentes", "peligros ocultos", que cumplen la tarea de ser los activadores. Como bien explica James Reason, no son la causa de quiebre de las defensas del sistema sino "las consecuencias tardías de decisiones tomadas anteriormente". Muy similar a lo que ocurre en la vida diaria y fuera de todo ámbito aeronáutico.
Estas consecuencias que se encuentran latentes, a la espera, se activan por la ocurrencia de un conjunto específico de circunstancias operacionales, bien ejemplificado con las famosas fetas de queso gruyere. Este queso tiene la particularidad de poseer agujeros. Cuando todos los agujeros coinciden, supongamos que alineamos las fetas y podemos ver a través de esos agujeros el otro lado, graficándolo mentalmente podríamos imaginar que se forma una "ruta" o una "aerovía" cuyo destino es un accidente. Reason habla del quiebre de las defensas por una combinación de fallas activas y latentes. Las defensas serían, siguiendo con la analogía de las fetas de queso, que no se forme esa aerovía, sino que el agujero de la primer feta, no coincida con el agujero de la segunda feta y así con todas las fetas que tengamos. ¿Con que herramientas contamos para prevenir esto? Un SMS en una herramienta para lograr la identificación de peligros y la gestión del riesgo de seguridad operacional. Buscar permanentemente los peligros latentes, colocar barreras que impidan que se activen o que los identifique una vez activados para evitar el efecto desencadenante. Cada compañía, proveedor de servicio, aeropuerto, etc., debe o deberá elaborar un SMS y esa será su herramienta adecuada. Roberto Julio Gómez |