Nel precedente articolo abbiamo visto come il comportamento dei lavoratori non sia casuale, ma il risultato di un sistema complesso fatto di organizzazione, cultura, pressioni e contesto operativo.
Ora entriamo ancora più in profondità: perché anche lavoratori esperti, formati e consapevoli possono compiere scelte rischiose?
La risposta sta, in larga parte, nei bias cognitivi.
I bias cognitivi sono scorciatoie mentali automatiche che il nostro cervello utilizza per prendere decisioni rapide.
Sono utili nella vita quotidiana, ma in ambito lavorativo — soprattutto in contesti ad alto rischio — possono diventare fattori critici di errore.
Secondo la letteratura scientifica e gli enti di riferimento in materia di sicurezza:
• l’essere umano non valuta il rischio in modo oggettivo
• le decisioni sono spesso influenzate da percezioni distorte e automatismi
Fonti ufficiali:
• INAIL – studi su fattore umano e sicurezza
• EU-OSHA – human factors e behavioural safety
• HSE – human error and decision making
• World Health Organization – human factors in safety-critical environments
2. I principali bias che aumentano il rischio di infortunio
Bias di normalizzazione del rischio
Quando un comportamento pericoloso non produce conseguenze immediate, viene percepito come “normale”.
Esempio: “Lo faccio sempre così e non è mai successo niente.”
Questo è uno dei meccanismi più pericolosi: trasforma l’eccezione in abitudine.
Eccesso di confidenza (overconfidence bias)
L’esperienza porta il lavoratore a sentirsi più sicuro di quanto sia realmente.
Tipico nei lavoratori esperti:
• sottovalutazione dei rischi
• riduzione dell’attenzione
• bypass delle procedure
L’esperienza, se non gestita, può diventare un rischio.
Bias dell’abitudine
Il cervello automatizza le azioni ripetute.
Problema: quando cambia il contesto (nuova macchina, nuovo ambiente, stanchezza),
l’automatismo non si adatta.
Risultato: errore operativo.
Bias della pressione temporale
Sotto pressione (tempo, produttività, urgenza), il cervello privilegia:
• velocità
• semplificazione
• scorciatoie
Si riduce la capacità di analisi del rischio.
L’EU-OSHA evidenzia che stress e carico mentale sono tra i principali fattori di errore umano.
Bias del gruppo (conformismo)
Il comportamento individuale si adatta a quello del gruppo.
Se nel reparto:
• si aggirano le procedure
• non si usano i DPI
• si lavora “veloci”
il singolo tenderà ad adeguarsi.
La cultura organizzativa vince sempre sulla norma scritta.
Bias dell’invisibilità del rischio
Se il rischio non è immediatamente percepibile (es. chimico, biologico, ergonomico):
viene sottovalutato o ignorato.
L’INAIL sottolinea come la percezione del rischio sia spesso più determinante del rischio reale.
3. Il legame diretto tra bias e infortuni
I bias cognitivi agiscono in modo silenzioso ma costante:
• riducono la percezione del pericolo
• aumentano la probabilità di comportamenti a rischio
• rendono “logiche” decisioni sbagliate
L’infortunio, quindi, non è un evento casuale, ma:
il risultato prevedibile di una serie di distorsioni cognitive + condizioni organizzative
Questo rafforza quanto visto nel primo articolo:
non esiste “errore umano puro”, ma errore sistemico influenzato da meccanismi mentali .
4. Perché formazione e procedure spesso non bastano
Molte aziende investono in:
• formazione teorica
• procedure
• regolamenti
Ma i bias cognitivi:
• non vengono eliminati dalla conoscenza
• agiscono anche quando sappiamo cosa è giusto fare
Esempio classico:
il lavoratore sa che deve usare il DPI… ma non lo usa.
Perché?
Non per ignoranza, ma per:
• abitudine
• pressione
• contesto
• bias cognitivi
5. Come ridurre l’impatto dei bias (approccio concreto)
Per migliorare davvero la sicurezza, bisogna agire su più livelli:
1. Rendere visibili i rischi
• segnali chiari
• feedback immediati
• indicatori visivi
2. Progettare ambienti “a prova di errore”
• ergonomia
• semplificazione delle procedure
• riduzione delle ambiguità
Approccio promosso da HSE e WHO: design for safety
3. Formazione comportamentale (non solo normativa)
• simulazioni
• casi reali
• analisi degli errori
Obiettivo: lavorare su decisioni e percezioni, non solo su regole.
4. Leadership della sicurezza
• capi che danno l’esempio
• ascolto attivo
• gestione delle pressioni produttive
5. Cultura della segnalazione
• eliminare la paura di segnalare
• valorizzare chi segnala rischi
Senza segnalazioni, i bias restano invisibili.
6. Verso una sicurezza più evoluta
I bias cognitivi ci insegnano una cosa fondamentale:
le persone non sbagliano perché sono incompetenti,
ma perché sono umane.
E proprio per questo:
• la sicurezza non può basarsi solo su regole
• deve integrare psicologia, organizzazione e progettazione
Conclusione
Se nel primo articolo abbiamo visto che il comportamento è influenzato dal sistema,
ora è chiaro che:
quel comportamento è anche filtrato da come il cervello interpreta la realtà.
Per ridurre davvero gli infortuni serve un cambio di paradigma:
• dalla colpa alla comprensione
• dalla regola al comportamento
• dalla norma al sistema

