I bias nell’analisi del rischio

Come saper riconoscere e affrontare problemi di sovrastima, sottostima, anchor bias e altre interferenze soggettive

Pubblicato il 27 Lug 2021

Manuel Angelo Salvi

DPO & Standards consultant presso GRC Team S.r.l.

Il cervello umano ha enormi capacità, in termini di analisi e valutazione di situazioni complesse, ambigue o incerte. Sarebbe un ottimo strumento di analisi e misurazione, se non fosse per un lungo elenco di pregiudizi ed equivoci. Gli americani li chiamano bias, distorsioni cognitive e pregiudizi, dovuti a processi empirici, euristici o fallaci.

Il nostro cervello è un abilissimo gestore delle proprie risorse, sia di tempo che di energie impiegate. Uno dei trucchetti che il cervello usa per “far prima” è quello di sintetizzare le informazioni, creando dei piccoli blocchi sintetici di sapere. Il termine sintetico, qui usato, è perfetto perché richiama due significati diversi; il primo, più ovvio, della brevità e il secondo della riproduzione plastica. Quando si sintetizza, si taglia, eliminando concetti a volte superflui ma talvolta utili e chiarificatori. Quando si riproduce qualcosa di sintetico si ha la sensazione dell’originale o del naturale, ma in realtà si ha solo qualcosa di fasullo.

Il processo empirico, che tutti noi quotidianamente usiamo da sempre, per poter catalogare e meglio comprendere l’incertezza, che ci circonda, non è altro che la ricerca e l’individuazione di analogie e regole, all’interno di quello che ci accade. Il processo empirico, alla base del metodo scientifico, nel nostro piccolo è troppo poco strutturato, affatto meticoloso e catalogato, con un campionamento eccessivamente esiguo, per assurgere a una qualsiasi regola o metodo. Cercare modelli di sintesi della realtà prendendo a campione la nostra sola esperienzialità è fuorviante.

Talvolta invece ci avventuriamo in astrazioni della realtà, facciamo ipotesi. Gradualmente, senza nemmeno rendercene conto, ci convinciamo che tali speculazioni siano reali, razionali e corrette. Tali intuizioni, talvolta si rivelano corrette e ci permettono di essere estremamente efficienti e rapidi nel dipanare l’incertezza. Purtroppo, la loro veridicità è spesso aleatoria o muta nel tempo più velocemente delle nostre convinzioni, portandoci a errori stratificati nel tempo.

L’euristica, che sta alla base di un qualsiasi processo scientifico, se applicata alla nostra specifica limitata esperienza e se priva di un sostegno di controprova, rischia di intrappolarci in equivoci di difficile risoluzione.

Altre volte ancora invece semplicemente commettiamo errori interpretativi dovuti a false credenze o fallaci convinzioni. Siamo semplicemente in errore ma non ce ne rendiamo conto.

Senza questi equivoci interpretativi, la mente umana potrebbe essere una macchina calcolatrice puramente razionale.

Tolleranza al rischio e bias

La tolleranza al rischio è una variabile influenzata da tratti psicologici ed emozioni negative quali apprensione e ansia (Risk Aversion), o di indifferenza (Risk Neutrality), ma anche da emozioni positive (Risk Appetite) o da una sua spasmodica ricerca (Risk Lovers).

WHITEPAPER
Security Levels: cosa sono e perché sono importanti per la sicurezza in ambito OT
Disaster recovery
Identity & Access Management

La tolleranza al rischio è unica per ogni individuo e egualmente è unica per ogni organizzazione. Essa, infatti, è condizionata da diversi elementi.

Obiettivi e condizioni di business, che fanno riferimento alla natura dell’organizzazione (es. produttività, vantaggio competitivo, risorse, reputazione, ecc.) e alle diverse tipologie di perdita sono un elemento differenziante. Una realtà a partecipazione pubblica fortemente radicata sul territorio avrà ad esempio una tolleranza alla perdita finanziaria maggiore, rispetto a una società quotata in borsa; una realtà piccola mediaticamente poco esposta avrà una tolleranza al danno reputazionale molto maggiore rispetto a un brand globale con investimenti milionari in pubblicità. La tolleranza al rischio varia da un’organizzazione a un’altra.

Personalmente, in quanto padre di famiglia e unico portatore di reddito all’interno del mio nucleo familiare, ho una tolleranza molto bassa verso le perdite finanziarie, mentre tendo a essere un “Risk lovers” quando si tratta di praticare un’attività sportiva, dove in teoria in gioco vi è la vita stessa. La tolleranza al rischio varia da una persona a un’altra.

L’analista e tutti quegli attori, che si occupano di risk management all’interno di un’organizzazione, dovrebbero riuscire a compiere 2 importanti astrazioni. La prima astrazione necessita di una ricalibrazione dai propri parametri di tolleranza a quelli dell’organizzazione. La seconda astrazione necessita di una spersonalizzazione, affinché la propria soggettività e la propria indole non riemergano continuamente nel valutare gli elementi attraverso i propri occhi e non quelli degli stakeholder.

Dovendo fare un esempio, forse tirato per i capelli, immaginiamo un investimento finanziario, dove il nostro analista del rischio è il mediatore finanziario, l’investitore è l’organizzazione per cui l’analisi dev’essere svolta. Il portafoglio d’investimento, nel nostro esempio il risk assessment, dovrà rispecchiare la tolleranza al rischio dell’investitore/organizzazione e non certo quella del mediatore/analista.

Esiste lo Zero Risk Bias (rischio zero) che è la tendenza a preferire una situazione priva di rischi. Questa risposta psicologica alle proprie paure, se applicata all’organizzazione, è una strategia estremamente dispendiosa, che tutela l’analista ma espone a costi eccessivi l’organizzazione. Inoltre, impedisce all’analista di individuare alternative, che incamerando una certa percentuale, anche piccola, di rischio offrano significativi vantaggi.

I bias nell’identificazione dei rischi

Il primo passo di un’analisi del rischio consiste nella modellazione dell’incertezza definendo, quello che dovrebbe essere un elenco esaustivo di variabili, eventi e rischi.

Quali sono i bias che maggiormente condizionano l’analista in questa fase?

Se l’analista soffre dell’Omitted variable bias trascurerà all’interno della propria analisi molte variabili, alcune delle quali significative. Questo fenomeno è strettamente collegato a un altro bias detto Myopic problem representation stante il quale la descrizione del fenomeno sarà incompleta a causa di modelli mentali eccessivamente semplificati. Che si guardi il problema come un omissioni di variabili o incapacità di avere una visione completa dello stesso, il risultato è che l’analista starà prendendo in considerazione uno spettro limitato e parziale del fenomeno. Il risultato sarà un’analisi del rischio che da una parte avrà “dimenticato” degli elementi, e che consequenzialmente stresserà verosimiglianza e impatto dei soli elementi individuati.

Il Confirmation Bias è un naturale auto-condizionamento dovuto alla nostra naturale propensione a riconoscere la giustezza di ciò di cui siamo precedentemente convinti. Un test per valutare la tua propensione a questo bias è assumere di essere nel torto e cercare di demolire le tue convinzioni e argomentazioni, chiedendoti: “Perché stai sbagliando?”. Le persone che trovano una naturale difficoltà a svolgere tale astrazione attribuiscono tale difficoltà alla giustezza insindacabile dei loro ragionamenti, piuttosto che al condizionamento dovuto al bias di conferma.

Il pregiudizio è così subdolo da indurre l’analista a selezionare inconsciamente prove e argomentazioni a supporto delle proprie tesi, e a sottovalutare l’importanza o la veridicità di elementi in contrasto.

Una tecnica di debiasing (pulizia dai bias) per i due citati bias è il lavoro di gruppo, affinché più teste riescano a stilare un elenco il più completo possibile, andando oltre le limitazioni dell’analista singolo. Si noti che vi sono molteplici evidenze che dimostrano la maggiore qualità dell’interazione di gruppi così detti “gruppi nominali” (in cui i membri generano idee in isolamento) piuttosto che dei tradizionali gruppi di brainstorming, sia in termini di eterogeneità che di qualità delle idee. L’interazione di gruppo potrebbe essere in un secondo momento stimolata con post-it su quali siano appuntate le diverse ipotesi.

Ma perché il brain storming è da evitare? Perché nei gruppi si cade spesso vittima del Bandwagon Bias o “pregiudizio del carro del vincitore”. Se una minoranza coesa è naturalmente propensa ad andare in una direzione o la leadership naturale di alcuni soggetti indirizza specificatamente la discussione o nel nostro caso la valutazione, il resto del gruppo si accoda.

Nel 1951, uno psicologo di nome Solomon Asch su rivolse a un gruppo di soggetti, che si stavano sottoponendo a un esame della vista. Nell’immagine mostrata loro vi erano 4 linee. La prima era il parametro di riferimento, mentre le altre 3 erano variabilmente più corte. Quando fu chiesto quale linea fosse più simile al parametro, il 99% rispose correttamente. Successivamente Asch istruì di nascosto alcuni falsi soggetti affinché dessero appositamente una risposta palesemente sbagliata, per verificare se il soggetto successivo ne fosse influenzato. Se il gruppo era formato da 2 persone e la prima indicava il valore più sbagliato, la seconda (il tester) rispondeva con una giustezza del 97%, comunque inferiore al campione iniziale. Se il gruppo era formato da 3 persone, con le prime due che davano risposte errate, la terza (il tester) rispondeva con una giustezza dell’87%. Se il gruppo era formato da 4 persone, con le prime tre che davano risposte errate, la quarta (il tester) rispondeva con una giustezza del 67%. Quando infine venne offerta una ricompensa, per generare pressione sul gruppo, solo il 53% dei soggetti diede una risposta corretta.

I bias nella valutazione dei rischi

Un altro passo cruciale di un’analisi del rischio consiste nella definizione della distribuzione (discreta) di probabilità degli eventi o di una loro funzione di densità (continua) associata a ciascuna variabile. Al di là di quale metodo sia preferito dall’analista, esso sarà passibile di una serie di bias tipici di questa operabilità.

  • L’Availability bias (disponibilità) è la naturale tendenza di tutti noi a esagerare l’importanza di eventi facilmente ricordabili. Alla base di questo bias c’è la naturale nostra soggezione a ciò che è recente e/o evidente nella nostra memoria, quasi che se un evento è così memorabile e così vivido per noi, debba avere necessariamente un’importanza equivalente. Tuttavia, la memorabilità di un evento è condizionata da moltissimi fattori, quali ad esempi la sua rilevanza mediatica, o la sua vicinanza alla nostra area d’interesse / lavoro, o semplicemente al fatto che è temporalmente più recente.
  • L’Equalizing bias è la naturale propensione dell’analista ad “appiattire” i valori. Si inizia con una distribuzione di probabilità piuttosto omogenea e si apportano minimali variazioni, dovute più a una nostra soggettività del momento, che ad una loro realistica veridicità.
  • Il Desirability bias ci porta inconsciamente ad assegnare probabilità più elevate a eventi e risultati, che siano per noi desiderabili, o ad assegnare probabilità inferiori agli indesiderabili. Nel primo caso, siamo in presenza di un bias di desiderabilità di un evento positivo, che si verifica quando l’opportunità di un risultato porta all’attribuzione di una verosimiglianza d’accadimento maggiore rispetto alla sua veridicità. È chiamato anche “pio desiderio” o “bias dell’ottimismo”. Le analisi di eventi estremamente desiderabili quali le Olimpiadi, da parte dei comitati delle città candidate, sono stati fortemente condizionati da questo bias. Le analisi sovrastimano i ritorni positivi dell’evento quali ticketing e sponsorizzazioni, mentre sottostimavano i costi realizzativi delle infrastrutture e i costi di gestione dell’evento, generando analisi che in molti casi si sono rivelate fortemente errate.

L’indesiderabilità di un evento caratterizza il Desiderability Bias in ottica negativa. Il timore e l’avversione ci induce a ritenerlo irreale o inverosimile, lontano dalla nostra realtà, quasi che la sua negazione sia una sorta di alienazione dello stesso. Ciò porta inconsciamente a calcoli fin troppo cauti e prudenti sulla probabilità d’accadimento o sulle sue conseguenze dannose. Questa distorsione si verifica spesso nelle analisi del rischio ambientale, che utilizzano deliberatamente modelli e stime “conservativi”.

Misurazione del rischio e calibrazione

Una delle attività più significative di un’analisi del rischio è la sua misurazione. La stima del rischio, come già accennato, costringe l’analista a calcolare o imputare un valore specifico sia esso relativo alla verosimiglianza dell’accadimento o al potenziale impatto. Pur non conoscendo i valori esatti, l’analista avrà un qualche tipo di conoscenza e/o esperienza sul fenomeno, che gli permetteranno di escludere alcuni valori riconosciuti come impossibili o almeno altamente improbabili. L’analista dovrà quindi individuare a suo giudizio il valore ritenuto più credibile, più vero.

Sfortunatamente, studi approfonditi hanno dimostrato che pochissime persone sono capaci di eseguire delle stime naturalmente calibrate. D. Kahneman, vincitore del Premio Nobel 2002 per l’economia, e A. Tversky, hanno svolto studi, nell’ambito della psicologia delle decisioni, sulla capacità degli individui di eseguire stime corrette. La psicologia delle decisioni, che si occupa di comprendere come le persone prendano le proprie decisioni, anche irrazionali, ha dimostrato che quasi tutti noi tendiamo a essere o troppo o troppo poco fiduciosi riguardo la giustezza delle nostre stime.

  • Overconfidence Bias – Eccesso di fiducia: quando un individuo abitualmente sopravvaluta le proprie capacità ed è nel giusto molto meno spesso di quanto egli creda.
  • Underconfidence Bias – Scarsità di fiducia: quando un individuo sottovaluta abitualmente le proprie capacità ed è nel giusto molto più spesso di quanto egli creda.

In entrambi i casi si generano significative inefficienze.

La nostra calibrazione e capacità di migliorare le nostre stime è migliorabile con l’applicazione e la pratica. Alcuni studiosi hanno scoperto che scommettitori e allibratori sono generalmente più bravi a valutare le probabilità di accadimento di un evento rispetto, ad esempio, al top management. Semplicemente lo fanno così abitualmente da avere calibrato la propria innata capacità di stimare.

L’analista dovrebbe prima comprendere se è over o under confidence, e aggiungere una sorta di scarto per equilibrare la propria soggettività. Dovrebbe poi misurare sistematicamente le proprie stime per perfezionare e ricalibrare costantemente le proprie capacità.

L’illusione dell’apprendimento

Molti esperti e analisti talvolta vengono soggiogati da un senso di eccessiva sicurezza e fiducia in sé stessi e nei propri mezzi. Dawes la chiama “Illusione dell’apprendimento“. È opinione diffusa che il giudizio migliori con il tempo, quasi fosse un buon vino d’annata.

Dawes ritiene che ciò sia dovuto, in parte, a una errata e imprecisa valutazione della propria memoria di sé. Tutti noi, raramente e comunque non meticolosamente, misuriamo le nostre performance nel tempo e tendiamo a memorizzare i nostri ricordi sotto forma di aneddoti, ove comunque vi è sempre un lieto fine o una morale, che ci abbia migliorato. Persino le situazioni peggiori o gli errori più grossolani, col tempo divengono divertenti episodi su cui abbiamo costruito il nostro io attuale. Questi nostri aneddoti, che arricchiscono la nostra personalissima autobiografia, tendono a essere più lusinghieri di quanto in realtà avrebbero dovuto essere. Questo processo, se da un lato rafforza la nostra autostima e il nostro amor proprio, dall’altro lato ingenera un’eccessiva sicurezza, che può portare a errori di overconfidence, come visto precedentemente.

La seduzione del primo

L’Anchor bias (ancora) rappresenta l’incapacità dell’individuo di allontanarsi troppo dal primo numero, a cui pensa o con cui entra in contatto, quasi fosse una barca all’ancora, che ruoti lentamente intorno al punto d’ancoraggio senza mai allontanarsene.

Il fenomeno è stato particolarmente studiato nelle logiche commerciali di pricing e di trattativa efficace ma ha piena validità anche all’interno di un’analisi del rischio. L’analista se ha in mente un numero, il quale potrebbe essere errato o avere scarsa significatività rispetto alla realtà, genererà stime che tenderanno a gravitare intorno a quel numero, senza che l’analista ne sia cosciente.

Chapman e Johnson nello studio “Anchoring, activation, and the construction of values” hanno evidenziato come il giudizio sia influenzato da un valore di partenza spesso irrilevante.

Fra i tanti esperimenti, cito quello del team di ricerca di D. Kahneman e A. Tversky, i quali hanno chiesto ai soggetti del test a quanto ammontasse la percentuale di nazioni africane presenti fra gli stati membri del ONU. La domanda era volutamente distorsiva e includeva due numeri, che avrebbero dovuto svolgere la funzione di ancora e condizionare le risposte. Al primo gruppo è stato chiesto: “Il numero di nazioni africane all’ONU è superiore al 10%?” mentre al secondo gruppo è stato chiesto “Il numero di nazioni africane all’ONU è superiore al 65%?”.

In un secondo momento a entrambi i gruppi è stato chiesto di stimare la percentuale giusta. Il gruppo A, che aveva ricevuto il primo quesito con il numero ancora del 10%, ha dato risposte che avevano quale valore medio il 25%. Il gruppo B, con il valore condizionante di 65, ha dato risposte che avevano quale valore medio il 45%.

Similare all’Anchor bias è l’effetto alone/corno, che rappresenta l’incapacità dell’individuo di allontanarsi troppo dalla prima sensazione. Ne siamo vittima tutti noi nella nostra quotidianità, condizionati dalla presunta esattezza della nostra “prima impressione”. Alzi la mano, chi crede che la sua prima impressione sia infallibile?

Tutti noi, se, durante la così detta prima impressione, percepiamo un attributo che ci predispone favorevolmente, interpreteremo tutte le ulteriori informazioni in un alone di eccessiva fiducia e benevolenza, assecondando e supportando la nostra prima effimera e soggettiva intuizione. Indipendentemente da quali siano le informazioni che sopraggiungeranno, saremo comunque ben predisposti, secondo la logica che la nostra prima impressione sia notoriamente infallibile. Allo stesso modo, un’impressione inizialmente negativa ottiene l’effetto opposto, quasi che belzebù e il suo corno si siano palesati di fronte a noi.

Kaplan dell’università di San Diego ha dimostrato come un aspetto fisico attraente generi valutazioni più alte. Durante un esperimento, ai soggetti è stato chiesto di valutare un tema scritto da uno studente. Insieme al saggio è stata fornita la fotografia dello studente. Il saggio era sempre il medesimo mentre a variare era unicamente la fotografia. La valutazione del saggio otteneva voti più alti con il migliorare dell’immagine dello studente.

Bias delle preferenze emergenti

Il Bias delle preferenze emergenti rappresenta l’incapacità dell’individuo di allontanarsi troppo dalla prima preferenza. Una volta che le persone iniziano a generare una qualsiasi preferenza, tenderanno a fossilizzarsi su tale scelta, quasi se ne affezionassero o ne divenissero fans. In aggiunta psicologicamente le informazioni aggiuntive, non verranno interpretate razionalmente per costruire una nuova e migliore preferenza, ma piuttosto soppesate criticamente con l’unico scopo di avvalorare la decisione precedente. Anche in questo caso come per l’ancoraggio su un numero o l’effetto alone su una sensazione, l’analista potrebbe non essere pienamente razionale nell’interpretazione di nuovi dati, poiché potrebbero essere osservati per giustificare un’opinione già formata, piuttosto che per migliorare l’analisi e eventualmente correggerla.

Ad esempio, se il management preferisce il progetto A al progetto B. Anche successive informazioni non li sposterà da tale preferenza ma anzi addurranno, quale ulteriore giustificativo sulla bontà della loro scelta iniziale, prese di posizioni pregiudizievoli su tali nuove informazioni. Se l’informazione aggiuntiva è: A è meno rischioso ma più oneroso. L’argomentazione sarà che la priorità è sempre stata verso una soluzione meno rischiosa. Se l’informazione aggiuntiva è: A è più rischiosa ma meno onerosa. L’argomentazione sarà che i vincoli di bilancio non hanno mai giustificato altre scelte.

Questa incosciente rigidità avviene anche se la persona non ha originariamente espresso la preferenza ma sono state indotte a crederlo. Come parte di un esperimento, ai clienti di un negozio di alimentari è stato chiesto di assaggiare 2 marmellate e di indicare quale preferivano. Poi, mentre i soggetti venivano distratti dalle domande di un altro ricercatore, i due barattoli e le loro etichette venivano scambiati. Ai soggetti è stato chiesto nuovamente di assaggiare la marmellata, che credevano fosse quella che precedentemente preferivano. Il 75% non solo non è stato in grado di riconoscere la sostituzione dei vasetti ma anzi si è avventurato in dettagliate argomentazioni (relative alla seconda marmellata) e sul perché la loro scelta (sulla prima marmellata) fosse quella più corretta.

Pseudocertainty effect o effetto pseudocertezza

È la tendenza a percepire un risultato incerto come certo. Ciò si osserva principalmente nei processi decisionali a più fasi, in cui ci si dimentica che i valori stimati, comportano sempre in sé uno scarto probabilistico. L’accadimento, in quanto probabile e non certo, si sedimenta man mano che si avanza negli step successivi della decisione.

Considera il seguente gioco. Pagando 5 euro hai una probabilità del 25% di vincere 5 euro, il 50% di non vincere nulla e una probabilità del 25% di passare alla fase due, dove potrai scegliere tra 2 opzioni: una vittoria sicura di 30 euro oppure l’80% di possibilità di vincere 45 euro.

Cosa fai? Giochi o non giochi?

Fai attenzione perché i 30 euro non sono affatto sicuri ma bensì hanno una probabilità di vincita al 25%. I 45 euro hanno una probabilità del 20%. I 5 euro hanno una probabilità del 25%. La probabilità di perdere i tuoi 5 euro è del 50%.

Conclusioni

I bias qui descritti sono solo un piccolo assaggio. Riconoscere che i bias esistono è il primo step del percorso per affrancarsene. Esistono numerose tecniche di debiasing per evitare di commettere errori di valutazione autoindotti.

WHITEPAPER
Gestione dei container di software: come renderli eseguibili ovunque, in sicurezza
Security Risk Management
Data protection
@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

S
Manuel Angelo Salvi
DPO & Standards consultant presso GRC Team S.r.l.
Argomenti trattati

Approfondimenti

R
risk assessment
R
risk management

I commenti sono chiusi.

LinkedIn

Twitter

Whatsapp

Facebook

Link