L’errore umano, una facile scorciatoia

In occasione di gravi incidenti, come lo scontro tra due treni in Puglia di pochi giorni fa, si sente quasi sempre parlare di “errore umano” come causa della tragedia.

Spesso i giornalisti usano l’espressione “errore umano” con toni perentori, a volte forcaioli, che soddisfano la voglia del pubblico di individuare in modo semplice, chiaro e veloce un responsabile, in una corsa all’attribuzione della colpa.
Tuttavia, l’analisi di tantissimi incidenti in sistemi complessi come l’aviazione ci fornisce alcuni spunti di riflessione in deciso contrasto con la ricerca di un singolo capro espiatorio:

  • La performance umana è generalmente molto affidabile: per un errore che accade, milioni di operazioni vengono svolte correttamente dagli operatori umani. Quante migliaia di volte i treni nella tratta Ruvo-Corato sono transitati correttamente, senza problemi? È realistico pensare che i dirigenti del movimento siano diventati all’improvviso negligenti e inaffidabili?
  • L’errore è però connaturato all’essere umano: la sua occorrenza è riducibile, ma non eliminabile. Tuttavia, l’essere umano è e resta necessario nei sistemi complessi, perché non tutto può essere automatizzato e perché finora solo all’intelligenza umana — più prona all’errore rispetto alla macchina, ma anche più flessibile — può essere affidato il controllo di decisioni chiave che richiedono di valutare in maniera dinamica molti parametri;
  • Considerato questo, se si progetta o gestisce un sistema in modo tale che non ci siano (o non vengano ben manutenute, che è lo stesso) barriere per prevenire l’accadere dell’errore o difese verso i suoi effetti, allora buona parte della responsabilità si situa più a monte, nell’organizzazione che gestisce il sistema.

Nel caso specifico dei treni pugliesi, sarebbe interessante sapere quanti quasi-incidenti — che non fanno notizia — c’erano stati su quella linea, magari causati da pressioni produttive o al fine di garantire la puntualità delle corse.
Chissà se i dirigenti ne erano inconsapevoli, magari perché tali quasi-eventi non venivano segnalati, o se invece sapevano, ma se ne infischiavano.
Chissà se c’era un sistema di gestione della sicurezza, volto a monitorare le criticità nelle operazioni e a fornire risposte a tali criticità.
Chissà se c’era personale addetto a fare safety assessment e a costruire matrici di rischio.
Chissà se negli anni ci sono stati incrementi di traffico fino al limite della capacità del sistema, che ne mettevano a dura prova la resistenza.
Chissà infine se le procedure, le dotazioni tecniche e la formazione erogata agli operatori erano ben integrate e di effettivo supporto l’un l’altra, oppure invece in conflitto tra loro.
Le indagini, forse, chiariranno tutto questo. Ma sono ragionamenti lunghi e noiosi, mentre è molto più semplice parlare di “errore umano” e incolpare chi spesso è solo l’ultimo anello di una catena di eventi che parte da molto lontano.
Costa meno, e non richiede di ripensare seriamente al proprio modo di lavorare.

 

Carlo Valbonesi

Carlo Valbonesi è un esperto di Sicurezza e Fattori Umani presso la società di consulenza e ricerca Deep Blue (www.dblue.it).
Da 10 anni si occupa di errore umano, user experience e usabilità dei sistemi digitali. Da 7 lavora nella sicurezza in aviazione, dove da lungo tempo svolge consulenza per EUROCONTROL — l’organizzazione per la sicurezza del traffico aereo in Europa — nello sviluppo e implementazione di strumenti digitali per il monitoraggio di eventi pericolosi per il traffico aereo.

Carlo Valbonesi
carlo.valbonesi@dblue.it

Safety & Human Factors Expert Since 2006, I've been dealing with human error, user experience and usability of digital systems, particularly in the field of aviation security.