“Le presento Jack Howard”, gli disse il vicesegretario alla difesa responsabile delle questioni nucleari. “Ha perso una bomba H”
“Perché ha chiamato me?”
“L’ha persa in acqua e voglio che lei la ritrovi”
…e quando fini di spiegare che avrebbe usato un sistema di scommesse per quantificare il valore di un presentimento nei suoi dati, alcuni dei comandanti operativi si convinsero che fosse completamente ammattito.
Le previsioni di ricavi sono da sempre il tallone d’Achille di ogni business plan: un errore di stima può compromettere la strategia aziendale, influenzare negativamente la raccolta di capitale e minare la fiducia degli stakeholder. I metodi tradizionali, come gli scenari deterministici o le simulazioni Montecarlo, pur fornendo un quadro strutturato delle possibili traiettorie finanziarie, tendono a ridurre la complessità del processo decisionale a semplici input numerici. In questo modo, rischiano di omettere un elemento cruciale: la profondità delle conoscenze tacite e delle intuizioni inesplorate che risiedono nella mente di ciascun esperto.
La metodologia proposta si fonda sull’idea che ogni professionista, al di là di ciò che è in grado di articolare consapevolmente, possieda una ricchezza di pattern cognitivi maturata attraverso esperienze, competenze specifiche e apprendimento informale. Il meccanismo bayesiano di “scommessa” traduce tale bagaglio latente in un’informazione misurabile: la quantità di risorse simboliche che un esperto è disposto ad allocare riflette non solo le sue convinzioni esplicite ma anche quel livello di fiducia subconscia che raramente emerge in un confronto diretto.
Questa dinamica consente di catturare in modo più completo la varietà delle prospettive individuali, trasformando giudizi qualitativi in dati quantitativi utilizzabili attraverso l’aggregazione bayesiana. In tal modo, il processo di stima si arricchisce di un doppio livello informativo: da un lato, la conoscenza esplicita espressa verbalmente o per iscritto; dall’altro, le competenze implicite che vengono spontaneamente rivelate nel momento della scommessa. Grazie ad un algoritmo che integra iterativamente le valutazioni con il teorema di Bayes, si ottiene una distribuzione di probabilità raffinata, capace di identificare lo scenario di ricavi più plausibile.
Uno degli aspetti più affascinanti e innovativi di questo metodo risiede nella sua capacità di attivare, in ciascun esperto coinvolto, livelli di conoscenza che potremmo definire “taciti” o addirittura “inconsci”. Quando un esperto è chiamato a formulare ipotesi e ad esprimere preferenze, attraverso meccanismi di scommessa, non si limita a riportare ciò che sa esplicitamente ma mette in campo intuizioni, schemi riconosciuti inconsciamente, esperienze sedimentate nel tempo e capacità analitiche implicite. In tal modo, il metodo diventa uno strumento non solo per aggregare competenze ma anche per far emergere conoscenze latenti che il singolo individuo non saprebbe articolare razionalmente. L’intelligenza collettiva così generata si rivela sorprendentemente più acuta della somma delle competenze esplicite dei partecipanti.
L’ispirazione storica del metodo risale all’ingegnere John Craven, che nel 1966 applicò con successo lo stesso concetto durante l’operazione di localizzazione di un ordigno nucleare disperso al largo di Palomares. Riprendendo quell’approccio, la presente metodologia ripropone il potenziale della “scommessa cognitiva” in un contesto aziendale, ponendo le basi per una stima dei ricavi che unisce rigore probabilistico, trasparenza e piena valorizzazione dell’intelligenza collettiva.
Nel gennaio del 1966, al largo delle coste di Palomares, nel sud della Spagna, un bombardiere strategico statunitense B-52 in fase di rifornimento in volo entrò in collisione con un aereo cisterna KC-135. L’incidente causò la distruzione di entrambi i velivoli e la dispersione di quattro bombe termonucleari B28. Tre furono rinvenute rapidamente sulla terraferma, ma una quarta cadde in mare, scomparendo in un’area marina ampia e complessa, estesa su circa 26 km² e con profondità variabili fino a 900 metri.
La posta in gioco era altissima, oltre al rischio ambientale e politico derivante dalla perdita di un’arma nucleare, vi era l’urgenza di mantenere il controllo del recupero per motivi strategici, per evitare che altre potenze potessero localizzare e studiare l’ordigno. Il problema presentava una complessità estrema. Le variabili in gioco includevano le correnti sottomarine, il moto ondoso, la dinamica della caduta in acqua dell’ordigno, la forma e il peso della bomba, la precisione delle testimonianze oculari, nonché i limiti tecnologici dei sonar dell’epoca. I metodi classici di ricerca sistematica risultarono inefficaci: l’area era troppo vasta e le risorse troppo limitate per procedere con una scansione esaustiva del fondale.
A questo punto entrò in scena John P. Craven, ingegnere navale e consulente scientifico della Marina statunitense. Craven adottò un approccio radicalmente innovativo per l’epoca, ispirato alla logica probabilistica bayesiana. Costituì un team multidisciplinare composto da oceanografi, fisici, ingegneri, esperti balistici e ufficiali della Marina, chiedendo a ciascun membro di formulare ipotesi indipendenti sulla posizione della bomba in base alle proprie competenze. Il contributo individuale non era solo una dichiarazione razionale, ma una rappresentazione probabilistica in grado di riflettere anche aspetti intuitivi e conoscenze tacite. Per stimolare l’espressione sincera e motivata dei giudizi, Craven adottò un originale meccanismo di incentivazione basato su scommesse in bottiglie di Jack Daniel’s, attribuite alle varie ipotesi proposte. Questo espediente non solo rese il processo più coinvolgente, ma permise di rilevare il grado di fiducia che ciascun esperto attribuiva alle proprie e alle altrui ipotesi.
Ogni esperto doveva indicare una distribuzione di probabilità sulla mappa e, per rendere esplicita la fiducia nelle proprie stime, scommettere una o più bottiglie di Jack Daniel’s sul risultato più probabile. Questo espediente, apparentemente informale, serviva in realtà a indurre una riflessione più profonda sul grado di incertezza individuale e a quantificare in modo implicito la fiducia soggettiva.
Craven poi aggregò queste distribuzioni secondo una logica iterativa: i risultati delle prime immersioni, anche se infruttuose, venivano usati per aggiornare le stime di probabilità, affinando progressivamente la zona di ricerca. Questo processo riflette perfettamente il teorema di Bayes, secondo cui la probabilità di un evento (in questo caso, la posizione dell’ordigno) viene aggiornata sulla base dell’evidenza osservabile, pesando l’informazione iniziale (prior) e quella successivamente acquisita (likelihood).
Il 7 aprile 1966, dopo settimane di immersioni, il minisommergibile Alvin localizzò e recuperò la bomba sul fondale marino, a meno di 200 metri dal punto indicato dalla massima probabilità congiunta derivata dal modello bayesiano aggregato. Il successo dell’operazione non solo evitò una potenziale crisi diplomatica, ma dimostrò l’efficacia dell’approccio bayesiano in contesti ad alta incertezza e alta posta in gioco.
L’Operazione Craven è oggi considerata uno dei primi esempi pratici documentati di applicazione strutturata del pensiero bayesiano in ambito operativo, ben prima che la diffusione dei moderni strumenti computazionali ne facilitasse l’impiego.
L’approccio bayesiano alla stima e alla previsione si fonda su una solida architettura teorica, che integra concetti matematici, statistici e filosofici. Di seguito vengono illustrati i principali pilastri concettuali su cui si basa la metodologia.
Il teorema di Bayes rappresenta il fulcro della statistica bayesiana. Esso fornisce un meccanismo formale per aggiornare le probabilità di un’ipotesi alla luce di nuove evidenze.
Considerando un insieme di alternative A₁, …, Aₙ, che partizionano lo spazio degli eventi Ω (ossia Aᵢ ∩ Aⱼ = ∅ per ogni i ≠ j e ⋃ᵢ₌₁ⁿ Aᵢ = Ω), ed un evento E ⊆ Ω (in modo che l’evento E implichi l’evento per cui si è verificata almeno un’alternativa) tale che P(E) ≠ 0, si ottiene la seguente espressione per la probabilità condizionata:
P(Aᵢ | E) = [P(E | Aᵢ) × P(Aᵢ)] / P(E) = [P(E | Aᵢ) × P(Aᵢ)] / Σⱼ₌₁ⁿ [P(E | Aⱼ) × P(Aⱼ)]
Dove:
In parole semplici, il teorema descrive come le opinioni sull’evento A cambino in seguito all’osservazione dell’evento E.
Relazione intuitiva:
Probabilità a posteriori ∝ Verosimiglianza × Probabilità a priori
Questo teorema consente di trasformare informazioni soggettive o stime iniziali (priors) in valutazioni aggiornate e più informate (posteriors), incorporando nuove osservazioni in modo sistematico.
Al precedente si aggiunge il concetto di “saggezza delle folle”, che si basa sull’osservazione empirica secondo cui una stima aggregata ottenuta da molteplici individui indipendenti tende ad essere sorprendentemente accurata, spesso più di quella di un singolo esperto. Questa intuizione, popolarizzata da Francis Galton e successivamente formalizzata in vari contesti statistici e decisionali, assume particolare rilevanza in ambito bayesiano.
Infatti, la metodologia bayesiana può incorporare giudizi eterogenei e soggettivi – ad esempio, stime fornite da diversi esperti o stakeholder – per costruire una distribuzione a priori più informativa, sfruttando la varietà e l’indipendenza delle fonti. La condizione chiave per il successo di questo approccio è che le opinioni siano:
Inoltre, è necessario considerare anche il “teorema del giurato” di Condorcet che fornisce una base probabilistica alla democrazia decisionale dimostrando che, in presenza di decisori indipendenti ciascuno con una probabilità superiore al 50% di prendere la decisione corretta, la probabilità che la maggioranza arrivi alla decisione giusta tende a 1 all’aumentare del numero di decisori. Formalmente, se 𝑝>0.5 è la probabilità individuale di correttezza, allora la probabilità che la maggioranza abbia ragione cresce esponenzialmente con il numero 𝑛 di decisori.
Questo risultato ha implicazioni profonde per la costruzione di stime collettive in contesti bayesiani: assumendo che ciascun esperto fornisca una stima ragionevolmente accurata (con errore inferiore al caso), la loro aggregazione – se eseguita con metodi rigorosi – permette di aumentare l’affidabilità complessiva della previsione.
Per ultimo si aggiunga anche il “principio di massima entropia”, formulato da Edwin Jaynes, offre un criterio razionale per selezionare la distribuzione di probabilità più “neutrale” possibile compatibile con l’informazione disponibile. In assenza di ulteriori dati, la distribuzione massimamente entropica è quella che fa il minor numero di assunzioni non giustificate e quindi, introduce il minimo bias.
Questo principio si integra perfettamente con il pensiero bayesiano, in quanto permette di costruire distribuzioni a priori basate unicamente sui vincoli informativi realmente noti (ad esempio, valore atteso, varianza) evitando assunzioni arbitrarie. In termini pratici, l’approccio di massima entropia garantisce che il processo inferenziale sia il più trasparente e oggettivo possibile, preservando al tempo stesso la coerenza logica della probabilità.
Nel contesto del business planning, i ricavi futuri rappresentano una variabile latente: non sono osservabili direttamente, ma possono essere inferiti attraverso segnali e ipotesi. La loro stima è inevitabilmente soggetta a incertezza, condizionata da dinamiche di mercato, mosse dei competitor, cambiamenti normativi e shock esogeni come crisi economiche o innovazioni tecnologiche. In questo scenario di complessità e instabilità, l’approccio di Craven offre una struttura metodologica adatta a modellare l’incertezza soggettiva, consentendo di aggiornare le previsioni man mano che nuove informazioni diventano disponibili. Per affrontare questa sfida è cruciale costruire un team multidisciplinare, capace di riflettere visioni e competenze eterogenee. Il team ideale include esperti di mercato, che forniscono intuizioni sulle tendenze settoriali e sull’evoluzione competitiva; analisti finanziari, che si occupano della formalizzazione dei modelli previsionali e della coerenza numerica; consulenti strategici, che inquadrano i ricavi all’interno di scenari macro e strategie di posizionamento; imprenditori operativi, che apportano concretezza e sensibilità esecutiva nella valutazione della fattibilità delle ipotesi formulate. Questa diversità epistemica è fondamentale per costruire previsioni robuste, poiché ogni membro contribuisce con modelli mentali e informazioni specifiche.
Per illustrare concretamente l’applicazione del processo previsionale descritto, consideriamo un caso reale, nel settore del cemento, per il quale abbiamo applicato questo metodo, con apprezzabile successo. L’industria del cemento è caratterizzata da forte ciclicità e sensibilità a variabili esogene come l’andamento delle opere infrastrutturali, il costo dell’energia e le politiche ambientali, in questo contesto la previsione dei ricavi assume una rilevanza strategica cruciale. Il caso pratico sviluppato all’interno di un gruppo cementiero ha visto l’implementazione della metodologia previsionale ispirata alla logica bayesiana, nella quale l’incertezza non viene elusa ma piuttosto strutturata, formalizzata e integrata nel processo decisionale.
Il percorso previsionale si apre con una fase di scenario planning condotta in modo autonomo. Cinque membri del team direzionale, ciascuno con esperienze e competenze differenti, un ingegnere di produzione, due analisti di mercato, un responsabile commerciale e un analista finanziario, sono stati chiamati a formulare la propria valutazione soggettiva dei ricavi attesi per i 5 anni successivi. Questa valutazione non si esprime in un unico valore puntuale, bensì in una distribuzione articolata su cinque scenari distinti. Il cuore dell’analisi è rappresentato dallo scenario centrale, ritenuto da ciascun esperto il più probabile. Attorno ad esso gravitano due scenari conservativi, che contemplano ipotesi al ribasso, derivanti ad esempio da un rallentamento dei cantieri pubblici o da un aumento imprevisto dei costi di produzione, e due scenari ottimistici, che includono l’eventualità di una domanda più vivace del previsto o di accordi commerciali particolarmente favorevoli. Ogni scenario non è soltanto quantificato, ma viene accompagnato da una giustificazione qualitativa e, ove disponibile, da riferimenti storici o dati comparabili, così da fornire un ancoraggio empirico alle ipotesi formulate.
La fase successiva si fonda su un meccanismo di sintesi collettiva ispirato ai principi delle information markets, ovvero mercati in cui il prezzo riflette la somma delle informazioni distribuite tra gli attori. Per rendere operativa questa logica, ciascun partecipante scommetteva bottiglie di champagne, da distribuire liberamente tra le venticinque previsioni complessive (cinque scenari per ciascuno dei cinque membri del team). L’allocazione di queste bottiglie rappresenta un indicatore di fiducia epistemica: il modo in cui ciascun individuo valuta la credibilità delle previsioni degli altri. In altre parole, chi assegna molte bottiglie a uno scenario altrui ne riconosce implicitamente la solidità argomentativa o la coerenza con la propria visione del contesto.
Attraverso questa distribuzione ponderata, si ottiene una sintesi che non corrisponde a una media aritmetica, bensì a una media epistemica ponderata, in cui il peso di ciascuna previsione riflette l’intensità del consenso informato. Il risultato finale è una distribuzione aggregata dei ricavi futuri, che incorpora in modo strutturato le eterogeneità informative e cognitive presenti nel gruppo. Il processo, pur formalizzato, resta aperto al confronto critico: l’allocazione delle bottiglie stimola la discussione e consente di identificare rapidamente le proiezioni percepite come più deboli o controverse, favorendo così un affinamento collettivo delle ipotesi.
Questa metodologia si configura come una concreta applicazione dell’approccio di Craven alla previsione: essa consente di costruire una distribuzione condivisa a partire da priori soggettive, calibrate attraverso un confronto trasparente e aggiornate grazie alla dinamica del gruppo. In un settore come quello del cemento, in cui l’incertezza è strutturale, questo approccio non solo migliora la qualità delle stime, ma rafforza anche la fiducia interna nel processo previsionale, trasformando un esercizio spesso percepito come opaco in un momento di riflessione collettiva e apprendimento organizzativo.
Il cuore quantitativo del metodo risiede nell’algoritmo di selezione che consente di identificare, tra le venticinque tabelle prodotte dai cinque esperti, quella che meglio rappresenta una sintesi credibile e condivisa delle proiezioni di ricavo. Questo algoritmo integra due dimensioni complementari dell’espressione del giudizio esperto: il numero di preferenze ricevute da ciascuna tabella e l’intensità delle scommesse espresse in bottiglie di champagne. Formalmente, la funzione di scoring è definita come:
Il termine Votii rappresenta il numero di esperti che identificano la tabella come la più realistica. Questo parametro riflette un consenso qualitativo e distribuito, ovvero il grado di accettazione che una proiezione riceve da parte del gruppo. Il termine Scommessei, invece, misura la somma delle bottiglie assegnate a quella specifica tabella, catturando la forza con cui gli esperti credono nella sua veridicità rispetto alle alternative.
L’adozione di due coefficienti Alfa e Beta consente di calibrare il peso relativo da attribuire al consenso diffuso (voti) rispetto all’intensità delle convinzioni (scommesse). Tali parametri possono essere ottimizzati in fase preliminare tramite simulazioni o validazioni retrospettive, al fine di garantire una combinazione robusta e bilanciata.
Questo sistema premia le tabelle che ottengono sia una larga approvazione trasversale sia un supporto forte da parte di pochi esperti altamente convinti. In questo modo si cattura l’informazione sia orizzontale (consenso) che verticale (intensità del giudizio), permettendo un’aggregazione sofisticata delle opinioni, coerente con i principi bayesiani. Inoltre, l’approccio riduce il rischio di polarizzazione e consente l’emersione di scenari non convenzionali ma plausibili, riconosciuti da minoranze competenti.
L’applicazione del metodo produce una varietà di risultati che, presi nel loro insieme, costituiscono una rappresentazione ricca e articolata delle possibili traiettorie di ricavo. Anzitutto, si ottiene una stima puntuale, ovvero l’individuazione della tabella selezionata come la più realistica sulla base del punteggio complessivo attribuito dall’algoritmo bayesiano. A questa stima si affianca una distribuzione di probabilità che ordina le venticinque tabelle in funzione del consenso ricevuto, offrendo così una visione graduata della plausibilità attribuita a ciascuna proiezione.
Inoltre, il metodo consente di derivare misure di incertezza, tra cui varianza, scarti standard e intervalli di confidenza, direttamente dalla dispersione delle scommesse. Questo permette di apprezzare non solo il valore centrale stimato, ma anche il grado di consenso o disaccordo che lo circonda. Infine, viene condotta una analisi di sensitività, volta a identificare i driver principali che determinano le differenze tra scenari. Tali fattori possono includere variabili macroeconomiche, dinamiche di prezzo, tassi di adozione o reazioni competitive, e costituiscono uno strumento fondamentale per la gestione proattiva del rischio e per l’elaborazione di strategie contingenti.
L’adozione di questo approccio metodologico comporta una serie di vantaggi strategici, cognitivi e operativi. In primo luogo, consente di “oggettivare” (il più possibile)[1] valutazioni altrimenti soggettive: le opinioni individuali, spesso informali o implicitamente influenzate da bias personali, vengono formalizzate in una struttura coerente e confrontabile, trasformando la conoscenza tacita in informazione operativa.
In secondo luogo, il sistema riduce significativamente l’impatto di bias cognitivi noti come l’“overconfidence”, l’effetto “ancoraggio” e il “groupthink”. La natura competitiva del meccanismo di scommessa, insieme all’aggregazione indipendente delle valutazioni, stimola riflessioni più critiche e autonome.
Un ulteriore beneficio è la capacità di incorporare esplicitamente l’incertezza. A differenza dei modelli deterministici tradizionali, che spesso forniscono una sola traiettoria attesa, l’approccio di Craven restituisce una distribuzione di probabilità, rendendo visibile la gamma di scenari possibili e il grado di fiducia associato a ciascuno.
La tracciabilità rappresenta un altro punto di forza: ogni elemento del processo è riconducibile a specifici input forniti dai singoli esperti, facilitando audit, revisioni e aggiornamenti. Proprio la capacità e la facilità di aggiornamento costituiscono, infine, un valore distintivo: il framework bayesiano consente infatti di integrare nuove informazioni nel tempo, migliorando progressivamente la qualità predittiva del modello e permettendo iterazioni successive senza compromettere la coerenza interna della stima iniziale.
[1] Poiché il metodo, si fonda sull’interpretazione delle probabilità come livello di fiducia del verificarsi dell’evento, e quindi sostanziandosi su logiche statistiche-inferenziali, non può essere interamente ricondotto a una metodologia di carattere induttivo.