Incidenti e iceberg

L’importanza dei quasi-incidenti e la lezione che possiamo imparare

Gli incidenti come quello del treno di Andria fortunatamente sono molto rari.

Se gli incidenti sono rari, meno rari sono i quasi-incidenti, ovvero situazioni in cui danni a persone o cose sono stati sfiorati.
Non fanno clamore, ma sono delle lezioni preziose per chi lavora nel settore: essi rivelano i punti deboli nel sistema che potrebbero far verificare la situazione di alto rischio. E rivelano anche che cosa ha consentito di evitare un incidente, più o meno catastrofico. A volte è il puro caso, altre volte l’attivazione di difese tecnologiche o l’intervento umano.

L’iceberg di Heinrich

È utile pensare agli incidenti e ai quasi-incidenti come a un iceberg: gli incidenti sono la punta emersa, visibile a tutti, mentre i quasi-incidenti sono la grande parte sommersa.
I quasi-incidenti più gravi sono più frequenti degli incidenti, ma ancora piuttosto rari. I quasi-incidenti meno gravi sono ancor più frequenti e così via, in un diminuire del rischio ed aumentare della frequenza.
Un’immagine proposta per la prima volta da Herbert William Heinrich, per sfruttare l’dea di una struttura piramidale, con pochi casi nella sommità e molti alla base, e in gran parte ignota.

Incidenti e quasi-incidenti sono rappresentati da Heinrich come un iceberg.

Lo studio del quasi-incidente

Le organizzazioni che si occupano di sicurezza sono molto interessate alla parte sommersa dell’iceberg. Infatti, gli incidenti ricalcano spesso le dinamiche di quasi-incidenti accaduti in passato.
Negli incidenti veri e propri, però, accade qualcosa in più che, in combinazione con le altre rotture dei punti deboli del sistema, determina il sinistro. I “qualcosa in più” sono spesso casuali e imprevedibili: una distrazione o un improvviso guasto a uno strumento fino a ieri ben funzionante.

Imparare la lezione

L’organizzazione che sorveglia le situazioni di rischio accadute in passato può conoscere i propri punti deboli e migliorarli.
Può stabilire turni di manutenzione più frequenti sulle apparecchiature vitali, formare gli operatori con cura su temi critici. Può identificare i rischipiù importanti, le situazioni che non devono assolutamente accadere. Può lavorare sulle cause che possono far diventare il rischio reale, al fine di ridurne al massimo il numero.
Ecco che diventa interessante poter conoscere quanti quasi-incidenti sono avvenuti in questi anni sulla linea Corato-Andria, e di che tipologia.
Sarebbe assai utile per capire dove e come intervenire sulla sicurezza della tratta pugliese, al di là delle responsabilità personali degli attori coinvolti in questa catastrofe.

Quando le cose funzionano

Quindi, eventi fortunatamente rari seppur tragici come l’incidente di Andria, hanno in realtà molti segnali che li precedono.
Ma, per l’appunto, bisogna osservare e imparare a trarne una lezione. Ciò vuol dire creare un sistema che permetta agli operatori di segnalare i rischi, farlo funzionare, guardare i dati, parlare con le persone che lavorano in prima linea, trarne delle conclusioni e di conseguenza prendere delle decisioni.
Il che vuol dire non solo avere un sistema di gestione della sicurezza, ma farlo funzionare davvero e non al solo fine di rispettare degli obblighi di legge.

Carlo Valbonesi

Carlo Valbonesi è un esperto di Sicurezza e Fattori Umani presso la società di consulenza e ricerca Deep Blue (www.dblue.it).
Da 10 anni si occupa di errore umano, user experience e usabilità dei sistemi digitali. Da 7 lavora nella sicurezza in aviazione, dove da lungo tempo svolge consulenza per EUROCONTROL — l’organizzazione per la sicurezza del traffico aereo in Europa — nello sviluppo e implementazione di strumenti digitali per il monitoraggio di eventi pericolosi per il traffico aereo.

Carlo Valbonesi
carlo.valbonesi@dblue.it

Safety & Human Factors Expert Since 2006, I've been dealing with human error, user experience and usability of digital systems, particularly in the field of aviation security.