Iscrizione Newsletter

Iscriviti alla Newsletter



Login

Le cause degli incidenti

Attenzione: apre in una nuova finestra. PDFStampaE-mail

C'è un'ampia letteratura, soprattutto in lingua inglese, sulle cause degli incidenti. E le pagine di Manuale di Volo ci offrono la possibilità di approfondire, anche a diverse riprese, quali sono gli orientamenti teorici che spiegano l'origine, la natura, le conseguenze dei disastri in aviazione.

Esiste un detto giapponese: "Se hai un martello in mano tutti i problemi avranno forma di chiodo". In pratica, gli occhiali teorici che indossiamo ci fanno vedere quello che cerchiamo, nascondendo allo stesso tempo tutto ciò che non siamo attrezzati a percepire. Un po' come il fischietto ad ultrasuoni per i cani, verso cui siamo sordi: il fatto che non sentiamo nulla non vuol dire che stia accadendo nulla.

Fino a non molti anni fa la causa della maggior parte degli incidenti veniva individuata nel pilota. Errore del pilota, negligenza del pilota, mancata applicazione delle procedure, perdita di consapevolezza sulle reali dinamiche del volo, e così via. Insomma, la teoria della mela marcia: si punisce chi ha sbagliato ed il problema è risolto. Secondo questa mentalità, sbagliare non è lecito, il sistema è perfetto e solo un allontanamento da quanto previsto provoca le condizioni di pericolo, quindi bisogna ricorrere a sanzioni che abbiano un effetto deterrente verso le mele marce.

Dato che l'aviazione non è un asilo nido, ovviamente il rateo di incidenti ha continuato a rimanere stabile al suo valore, e si è così scoperto che le “mele marce” erano parecchie più di una. Quindi, il focus si è spostato dal singolo alle condizioni che pre-esistevano all'evento e che hanno contribuito a scatenare la dinamica incidentale.

Questo approccio sistemico si focalizza sul fatto che sbagliare è umano, e che l'errore si annida in tutti gli strati dell'organizzazione. Perciò il clima organizzativo, il disegno delle procedure, l'addestramento degli operatori di front line, la cultura professionale ed in genere tutte le regole di comportamento non scritte giocano un ruolo fondamentale nel determinare le azioni che conducono poi all'incidente.

Pensiamo al caso dell'incidente di Smolensk dove il pilota tenta un avvicinamento con nebbia fitta in condizioni che ne avrebbero sconsigliato, secondo i dettami professionali, la continuazione. Perché l'ostinazione del pilota ad atterrare? Il pilota non aveva tendenze suicide eppure ha messo a rischio la propria e l'altrui vita per portare a termine una missione che aveva poche probabilità di successo e soprattutto avendo a disposizione anche delle alternative valide. E allora?

Andando a spulciare nel suo passato si vede che aveva vissuto da vicino una esperienza molto negativa legata proprio al tipo di passeggero che stava trasportando, niente meno che il presidente della Repubblica, il quale, di fronte ad un dirottamento effettuato qualche tempo prima, si era lamentato con i vertici dell'aviazione militare polacca fino a far processare il comandante del volo.

In una situazione analoga, il comandante ha messo sul piatto della bilancia la probabilità di atterrare, anche non rispettando i criteri di visibilità richiesti, pur di non subire di nuovo l'umiliazione di un processo. Non è difficile stabilire, in questo caso, una relazione diretta tra clima organizzativo e decisioni individuali.

Nell'incidente di Guantanamo Bay, dove un DC8 cargo si è schiantato al termine di un servizio di volo che aveva impiegato il comandante ed il pilota per più di ventidue ore, la stanchezza ha giocato un ruolo primario, ma subito dopo si sono cambiate le regole del gioco: i limiti massimi di servizio sono stati rivisti, riducendoli significativamente.

In sostanza, si è passati dalla concezione che l'uomo-non-debba-sbagliare alla ricerca delle cause del perché e  del come l'uomo sbaglia, dando per assodato che errare humanum est.

Torneremo presto sui modi in cui le varie teorie concepiscono la sicurezza nei sistemi complessi, in particolare la Normal Accident Theory di Charles Perrow, lo Swiss Cheese Model di James Reason e la Resilience Engineering di Erik Hollnagel.

antonio.chialastri(at)manualedivolo.it

(1 giugno 2011)

RSS
RSS