L’analisi dell’errore in una cultura della conoscenza tutta da svelare e costruire

L’attrazione da parte della comunità scientifica sul fattore umano, da sempre esprime l’esigenza di analizzare le interazioni tra l’uomo e gli elementi di un sistema, e rendere queste, affidabili nelle relazioni tra uomo, ambiente e tecnologia.
Da un lato, l’intento di moderare dei rischi percepiti in modo isolato all’interno di un processo, dall’altro lo sviluppo della prevenzione, hanno portato questa disciplina scientifica, non solo ad analizzare o spiegare le condizioni che possono innescare il “processo erroneo” all’interno di un sistema ma, anche, a determinare l’ambizione di costruire un desiderio culturale atto ad indicare una corretta interazione fra tutte le componenti.
La scintilla di un cedimento della sicurezza nell’intero processo, è stata identificata nell’instabilità tra le varie componenti di un insieme in relazione all’uomo.
Precisamente, più un sistema risulta complesso, più emerge la necessità nelle organizzazioni di assegnare le attività di sistema all’uomo, più le funzioni delle persone determinano incertezze.

È per questo che il controllo di processo non è di semplice realizzazione.
L’evoluzione tecnologica, col tempo, ha elaborato meccanismi con caratteristiche di prevenzione e sicurezza automatiche che hanno a loro volta spostato l’attività diretta della persona al semplice controllo dei processi. Tali strategie, pongono dei dubbi, in un ecosistema di condizioni di comportamento, dove le attività dell’uomo sono fortemente condizionate da una notevole complessità, tra relazioni reali e percepite, in un’influenza reciproca e continua, sia fisica che psicologica.
Il fattore umano nella sua combinazione con l’ambiente e la sua complessità, delimita, una sequenza di variabili non calcolabili che influenzano l’affidabilità di un sistema. Su questo, si fonda l’importanza di dare “codifiche” all’imprevedibilità delle azioni eseguite dall’uomo.
La realtà, è che ci scopriamo non adeguati di fronte ad un fare che attiva, come un sistema indesiderato, una situazione non auspicabile. Spesso, rimaniamo sbalorditi dalla rinuncia o dalla negazione di tali codifiche, non decifrando le dinamiche che generiamo, in modo da prevenire, anticipare o predire un’azione e poterla gestire.
Per questo, i fattori umani, che agiscono nella normalità della vita di ognuno di noi, sono sempre più fulcro d’interesse. Le tesi scientifiche, evidenziano semplicemente che siamo portati ad “accettare in modo non riflessivo i nostri errori”, sbagli, sviste, imprecisioni, malintesi, come se fossero manifestazioni normali d’interpretazioni personali.

Si tratta di aspetti sicuramente non positivi che potrebbero causare non solo dei mancati potenziali interventi, ma addirittura dei veri e propri incidenti. Per spiegare, quanto può essere deleterio ignorare in modo non riflessivo gli eventi accaduti, con una semplificazione, le tradurremo in “best practices” (1). Di cosa parliamo? Si tratta, semplicemente di buoni comportamenti (best practices) e di cattivi comportamenti (bad practices) adottati dall’uomo (2). Parlando di cattivi comportamenti, potremmo immaginarli come tutti quegli eventi che ignoriamo o trascuriamo, e che al contrario potrebbero essere una preziosa fonte d’informazione se approfondita in tempo reale tramite il confronto dialettico, adottando nella loro importanza gli strumenti del briefing o del debriefing (3). Plausibilmente, dovremmo unicamente domandarci, se siamo sufficientemente stimolati, ad una cultura della sicurezza, una cultura della segnalazione, dell’analisi e risoluzione? Sicuramente è pura retorica, di certo osserviamo che rilevare alcuni effetti che tali inadempienze hanno sugli eventi da noi determinati, certamente ha la sua importanza. Il pensiero di partire dal termine “errore umano” è solo l’espressione di un primo tassello nel dare voce a vari tipi di silenzi e non vagare alla ricerca di significati di un nostro fare “senza strumenti dedicati” (4).

Dare voce all’errore umano è una delle chiavi per arrivare tecnicamente al giusto e alle regole, senza perdersi e disperdere il prezioso sostegno del “valore dell’errore” rispetto alla realtà della corretta procedura (5).
I primi studi dei fattori umani rievocano gli anni cinquanta, con una forte accelerazione negli anni settanta, assumendo un’importanza sempre crescente nell’accadimento d’incidenti, dato dallo sbilanciamento tra le componenti del sistema “uomo-tecnologia-ambiente”, che toccavano l’interesse di vari ambiti di attività, tra questi, quello dell’aviazione e le sue varie realtà. Proprio da questo input, la ricerca ha studiato sistemi di sicurezza per tutelare la vita umana determinando, nel tempo, modelli sempre più evoluti con stimolanti risultati nei molti settori interessati alla sicurezza umana. L’intento è equilibrare comportamenti erronei o non congruenti con i “buoni comportamenti”, come sistema prudenziale verso deviazioni comportamentali rilevanti e critiche.
Tuttavia, gli errori umani, sono solo l’espressione di una piccola tessera di un puzzle molto complesso e apparirebbe privo d’interesse all’attenzione pubblica.

1) La cultura delle Best Practices (Buoni Comportamenti), si intendono le esperienze, le procedure o le azioni più significative, o comunque quelle che hanno permesso di ottenere i migliori risultati, relativamente a svariati contesti e obiettivi preposti. A seconda dell’ambito, le “migliori prassi- comportamenti” possono essere definite come raccolta di esempi, procedure, esperienze passate che vengono opportunamente formalizzati in regole o piani che possono essere seguiti e ripetuti.
(2) La cultura della formazione nel panorama aziendale: elementi di criticità, best practice e riflessioni possibili di Lauro Mattalucci, Elena Sarati. Rivista di studi sulla formazione e sullo sviluppo organizzativo Anno II, numero 1, 2011
(3) M. Fedeli, L. Frontani, L. Mengato. Experiential learning. Metodi, tecniche e strumenti per il debriefing, 2014.
(4) Harford T. Elogio dell’Errore. Sperling & Kupfer, 2011
(5) Automated Systems in the Aviation and Aerospace Industries. 1983.

La ricerca, raffinando sempre più il suo strumento d’indagine col tempo ha focalizzato il “comportamento” dell’errore umano, superando la visione precedente e dando indicativi sviluppi in termini di “cultura della sicurezza”, rendendo il tema della sicurezza e della prevenzione degli errori, di forte attualità nei sistemi che operano in condizioni di rischio. Osservati alcuni scenari, dall’analisi degli errori, alle relative competenze cognitive conosciute come “competenze nontecniche individuali e di gruppo”, prende sempre più forma l’immagine che un mix fra competenze tecniche, espressione del tradizionale pensiero di ricerca e competenze non tecniche, attuale pensiero di ricerca (abilità a livello cognitivo, comportamentale e interpersonale), sia una combinazione auspicabile. Gli studi, di fatto, hanno individuato che con tale combinazione di competenze e abilità, è possibile rapidamente rilevare eventuali punti deboli del sistema e quindi trovare, attraverso la “cooperazione”, delle procedure atte a migliorare le condizioni di sicurezza, evitando o limitando l’innesco di possibili incidenti. Oltre a ciò diviene sostanziale che “l’intero gruppo” sia consapevole che la causa di un incidente non è mai una sola, così come la responsabilità di essa.A tal scopo, le competenze non tecniche sono state studiate e classificate sotto forma di sistemi comportamentali e tradotti in: consapevolezza situazionale, abilità decisionali, comunicazione, lavoro in gruppo, leadership, gestione dello stress, capacità di sostenere lo sforzo ed il carico di attività (6). Le analisi identificano, queste attività non tecniche, come l’espressione individuale e gruppale, cruciale, nella mitigazione probabilistica dell’errore. “Siamo consapevoli che errare è umano, ma riteniamo che l’errore non accada completamente a caso e che sia possibile renderlo prevedibile e quindi gestibile .”(Cit. Reason) (7). Come detto in precedenza queste abilità a livello cognitivo, comportamentale ed interpersonale chiamate “competenze non si tecniche” emergono in vari scenari strategici e basano su una cultura della sicurezza edificata sulla condivisione di convincimenti, valori, aspettative e comportamenti, sviluppati al fine di vivere e fare attività. Una metodologia traversale, dove sapere cosa ci si aspetta da sé stesso e dal gruppo con il quale si opera, esprime il valore dell’errore come strumento di crescita e di miglioramento continuo (8). Tali interazioni all’interno di un sistema, tra azioni umane, metodologie, regole, strumenti e tecnologie, dovrebbero essere regolate a causa della loro naturale non linearità.Di conseguenza, diviene fondamentale dare energia ad una cultura di condivisione del fattore umano che se espressa da ciascun individuo in modo organizzato, potrebbe manifestare un naturale presidio nel conoscere e prevedere tali eventi (9).
La cosa importante è non smettere mai di domandare. La curiosità ha il suo motivo di esistere. Non si può fare altro che restare stupiti quando si contemplano i misteri dell’eternità, della vita, della struttura meravigliosa della realtà. È sufficiente se si cerca di comprendere soltanto un poco di questo mistero tutti i giorni. Non perdere mai una sacra curiosità. (Albert Einstein)(10).
Lo sviluppo di una cultura nella quale, all’interno di un sistema, in caso di errore, non si concentrerà sul “Chi” ma sul “Cosa” accrescerà questo concetto di sicurezza. Poiché, l’errore non necessariamente è indice di negligenza o incompetenza, potrebbe verificarsi anche senza violare le regole o le norme, perché le stesse norme in uno scenario imponderabile potrebbero favorirlo. Ecco perché non si può migliorare il fattore umano se non si crede in esso, pertanto stiamo in ascolto, fidiamoci e mettiamoci in contatto con noi stessi e con gli altri. L’ascolto ci permetterà di aprire gli occhi e di schiudere le porte alle nostre risorse profonde, di accedere alle nostre qualità che parlano di noi e di chi siamo veramente.

(7) Reason J., Human factors, 1994. Cambridge University Press
(8) Catino M., Miopia organizzativa. Problemi di razionalità e previsione nelle organizzazioni. Bologna, 2009, Il Mulino.
(9) Harford T. Elogio dell’Errore. Sperling & Kupfer, 2011
(10) Parato E., Caro insegnante… ti scrivo, 2018.