28 Il teorema di Bayes
“It is, without exaggeration, perhaps the most important single equation in history.”
– Tom Chivers (2024)
Introduzione
Il teorema di Bayes costituisce un metodo matematico ottimale per risolvere problemi di inferenza induttiva, ovvero situazioni in cui si deducono cause sottostanti, principi generali o strutture complesse a partire da dati parziali e incerti. Trova applicazione in scenari disparati: dalla ricostruzione della percezione tridimensionale basata su segnali retinici all’interpretazione degli stati mentali altrui attraverso il comportamento osservabile, fino alla stima di parametri fisici in condizioni sperimentali rumorose (Baker et al., 2011; Ma et al., 2023). La sua efficacia emerge soprattutto in contesti dove le evidenze disponibili non permettono di discriminare univocamente tra ipotesi concorrenti.
Panoramica del capitolo
- L’importanza dell teorema di Bayes.
- l’utilizzo del teorema di Bayes per analizzare e interpretare i test diagnostici, tenendo in considerazione la prevalenza della malattia in questione.
- Soluzione di problemi di probabilità discreta che necessitano dell’applicazione del teorema di Bayes.
28.0.1 Incertezza come fondamento dell’inferenza
Un principio cardine del ragionamento bayesiano è il riconoscimento dell’incertezza intrinseca a qualsiasi processo conoscitivo. Anche in un universo deterministico, la complessità dei sistemi e i limiti dei nostri sensi rendono impossibile una conoscenza completa. Ad esempio, non possiamo determinare con esattezza infiniti dettagli (come posizione e stato di ogni neurone nel cervello di un interlocutore) né accedere direttamente a variabili latenti (come emozioni o intenzioni). Di conseguenza, ogni inferenza conserva un margine probabilistico, che Bayes quantifica e trasforma in uno strumento operativo.
28.0.2 Dinamica bayesiana: aggiornare le credenze
La realtà può essere paragonata a una partita di poker più che a una di scacchi: operiamo sempre in condizioni di informazione imperfetta. Le decisioni si basano su un bilanciamento tra conoscenze pregresse (prior) e nuovi indizi (likelihood), in un processo dinamico formalizzato dall’equazione:
\[
P(H \mid E) = \frac{P(E \mid H) \cdot P(H)}{P(E)} ,
\]
dove:
-
\(P(H \mid E)\) (posterior): plausibilità rivista dell’ipotesi \(H\) dopo aver osservato l’evidenza \(E\);
-
\(P(E \mid H)\) (likelihood): probabilità di osservare \(E\) se \(H\) fosse vera;
-
\(P(H)\) (prior): fiducia iniziale in \(H\);
- \(P(E)\): fattore di normalizzazione.
Questo meccanismo permette di ricalibrare razionalmente le convinzioni, riducendo l’incertezza man mano che nuovi dati vengono integrati.
28.0.3 Inferenza induttiva e razionalità adattiva
L’inferenza induttiva bayesiana rappresenta un pilastro della razionalità scientifica e quotidiana. A differenza della logica deduttiva (dove le conclusioni derivano necessariamente dalle premesse), Bayes riconcilia teoria ed evidenza empirica, consentendo previsioni robuste nonostante dati incompleti. Le applicazioni spaziano:
- in psicologia cognitiva, modellando come il cervello interpreta segnali ambigui (Caudek & Bruno, 2024; Domini & Caudek, 2003);
- nell’intelligenza artificiale, guidando algoritmi di apprendimento automatico (Chivers, 2024);
- nelle scienze sociali, per stimare preferenze nascoste da comportamenti osservati.
Il teorema non elimina l’incertezza, ma fornisce un protocollo formale per gestirla, trasformando l’induzione da atto intuitivo a procedura rigorosa. In questo senso, incarna un principio di razionalità adattiva, dove l’ottimalità non richiede onniscienza, bensì un aggiornamento coerente delle credenze in risposta all’esperienza.
28.0.4 Una rivoluzione nel pensiero probabilistico
Per comprendere appieno il teorema di Bayes, è necessario delineare le sue origini storiche. Nel XVIII secolo, Thomas Bayes (1701-1761), ecclesiastico presbiteriano e matematico britannico, pose le basi di una rivoluzione concettuale nel campo della probabilità e della statistica. Il suo contributo teorico, passato alla storia come teorema di Bayes, ha plasmato in modo decisivo lo sviluppo scientifico e tecnologico dei secoli successivi, influenzando discipline che spaziano dalla medicina all’intelligenza artificiale (Chivers, 2024).
28.0.4.1 La figura di Thomas Bayes
Bayes proveniva da una famiglia benestante e studiò teologia a Edimburgo, preparandosi al ministero religioso. Come ricorda il biografo David Bellhouse, Bayes non era un accademico nel senso moderno del termine, ma un erudito libero, interessato alla conoscenza per passione personale (Bellhouse, 2004).
Durante la sua vita, Bayes pubblicò due testi:
-
Un trattato di teologia: Divine Benevolence: Or, an Attempt to Prove that the Principal End of the Divine Providence and Government is the Happiness of His Creatures (1731), una teodicea che cerca di spiegare come la legge naturale possa ottimizzare il benessere universale.
- Una difesa del calcolo infinitesimale: An Introduction to the Doctrine of Fluxions (1736), in risposta alle critiche di George Berkeley sugli infinitesimi e i concetti fondamentali del calcolo newtoniano (Jesseph, 1993).
Il lavoro che segnò la svolta nella teoria della probabilità fu però pubblicato postumo, nel 1763, sulle Philosophical Transactions of the Royal Society: An Essay towards Solving a Problem in the Doctrine of Chances. Per la prima volta, si formalizzava un metodo per aggiornare le ipotesi probabilistiche alla luce di nuove evidenze, ponendo le fondamenta dell’inferenza bayesiana (Stigler, 1990).
28.0.4.2 Bayes e il ruolo culturale della scienza
Come sottolinea ancora Bellhouse, nel XVIII secolo era comune, tra le élite colte, dedicarsi allo studio di discipline scientifiche per prestigio sociale. Per Bayes, la matematica era dunque una passione coltivata con spirito libero. Il suo merito straordinario fu di spingere l’interpretazione della probabilità verso una prospettiva epistemologica innovativa, dove la probabilità diventa espressione quantitativa della nostra ignoranza sul mondo.
In contrapposizione alla visione “classica”, che vedeva la probabilità come frequenza osservabile in eventi ripetuti, Bayes propose che essa potesse rappresentare il grado di fiducia di un osservatore, inevitabilmente influenzato da conoscenze pregresse e da pregiudizi individuali. In questo senso, la probabilità assume un carattere dinamico e soggettivo, configurandosi come uno strumento di conoscenza che si aggiorna di continuo al variare dei dati (Spiegelhalter, 2019).
28.0.4.3 Un esperimento mentale illuminante
Per illustrare la sua idea, Bayes propose un semplice esempio: immagina di lanciare alcune palline su un tavolo da biliardo. Dopo aver segnato con una linea il punto in cui si ferma una pallina bianca (e averla poi rimossa), si lanciano altre palline rosse e si conta quante cadono a destra e quante a sinistra di quella linea. Sulla base di queste osservazioni, come si può “indovinare” la posizione della linea? E con quale probabilità la prossima pallina rossa cadrà a sinistra di essa?
La soluzione di Bayes combina i dati osservati (numero di palline cadute a sinistra o a destra) con le convinzioni iniziali dell’osservatore (il cosiddetto “prior”), delineando un processo di apprendimento graduale che guida la revisione critica delle ipotesi.
28.0.4.4 Il ruolo di Richard Price
Dopo la morte di Bayes, fu un altro ecclesiastico, Richard Price (1723-1791), a dare impulso alla diffusione del saggio bayesiano. Price aveva un’ottima reputazione negli ambienti intellettuali dell’epoca, grazie anche alle sue relazioni con figure di spicco come Benjamin Franklin, Thomas Jefferson e John Adams.
Price prese in carico il manoscritto di Bayes, lo sottopose al fisico John Canton e ne curò la pubblicazione postuma, operando modifiche significative. Rispetto alla versione originale di Bayes, concentrata quasi esclusivamente sugli aspetti teorici, Price aggiunse una parte dedicata alle applicazioni pratiche, rendendo il testo più fruibile a un pubblico più ampio. Per questo motivo, lo storico Stephen Stigler lo definisce «il primo bayesiano della storia».
28.0.4.5 Dal silenzio alla riscoperta
Per oltre cinquant’anni, il lavoro di Bayes rimase in ombra, oscurato dall’opera pionieristica di Pierre-Simon Laplace. Già nel 1774, Laplace pervenne indipendentemente a principi analoghi, e successivamente li sistematizzò nella monumentale Théorie analytique des probabilités (1812). Solo in tempi più recenti, con l’avvento dei metodi di calcolo moderno e dell’informatica, la statura del teorema di Bayes è emersa in tutta la sua importanza.
Oggi, il teorema di Bayes è considerato un cardine della statistica moderna: formalizza il modo in cui aggiorniamo le nostre credenze alla luce di nuovi dati. Questo schema è cruciale in ogni disciplina scientifica e tecnologica che debba fare i conti con incertezza e dati incompleti. Dalla genomica all’econometria, dalla fisica delle particelle alle scienze cognitive, il paradigma bayesiano risulta prezioso per gestire e interpretare informazioni in continuo aggiornamento.
28.0.4.6 L’eredità di Bayes nell’era digitale
Nell’intelligenza artificiale, le idee bayesiane sono alla base di sistemi di apprendimento automatico e modelli probabilistici complessi. Strumenti come i moderni modelli linguistici (ad esempio ChatGPT e Claude) sfruttano strategie di inferenza bayesiana – anche se in forme estremamente avanzate – per generare risposte, fare previsioni e adattarsi costantemente agli input degli utenti.
La parabola storica di questo teorema, nato dalle speculazioni di un pastore presbiteriano del Settecento, mostra chiaramente il potenziale trasformativo delle idee matematiche. Come sottolinea Tom Chivers nel suo Everything Is Predictable: How Bayesian Statistics Explain Our World, la statistica bayesiana è diventata una sorta di “grammatica universale” per interpretare la realtà, permettendoci di affrontare con metodo situazioni complesse, modellare l’incertezza e formulare previsioni in contesti dove l’informazione è inevitabilmente limitata (Chivers, 2024).
In sintesi, la forza del teorema di Bayes non risiede soltanto nella sua eleganza formale, ma soprattutto nella sua portata epistemologica: esso traduce in termini matematici la nostra naturale tendenza ad apprendere da ciò che osserviamo e a rivedere continuamente ciò che crediamo. Per questo rimane, ancora oggi, un punto di riferimento fondamentale in qualunque disciplina che affronti il problema della conoscenza in condizioni di incertezza.
28.1 La regola di Bayes e l’inferenza probabilistica
L’inferenza bayesiana utilizza un principio centrale della teoria delle probabilità noto come regola di Bayes. Questo principio consente di aggiornare in modo razionale le nostre credenze sulla base di nuovi dati osservati, integrandoli con conoscenze pregresse.
28.1.1 Derivazione della regola di Bayes
Consideriamo due eventi casuali, \(A\) e \(B\). La probabilità congiunta \(P(A, B)\), ossia la probabilità che entrambi gli eventi accadano simultaneamente, può essere espressa in due modi equivalenti:
Tramite la regola della catena, possiamo scrivere: \[ P(A, B) = P(A \mid B)P(B). \] Qui, \(P(A \mid B)\) è la probabilità condizionata che si verifichi l’evento \(A\) sapendo che l’evento \(B\) è avvenuto, mentre \(P(B)\) è la probabilità marginale di \(B\), indipendente da \(A\).
Utilizzando la simmetria della probabilità congiunta, possiamo invertire gli eventi: \[ P(A, B) = P(B \mid A)P(A). \]
Dato che entrambe le espressioni rappresentano la stessa probabilità congiunta, possiamo eguagliarle:
\[ P(A \mid B)P(B) = P(B \mid A)P(A). \]
Risolvendo per \(P(B \mid A)\) otteniamo la regola di Bayes:
\[ P(B \mid A) = \frac{P(A \mid B) P(B)}{P(A)}. \tag{28.1}\]
28.1.2 Interpretazione dei termini della regola di Bayes
La regola di Bayes permette di aggiornare la nostra credenza sulla probabilità di un’ipotesi o evento (\(B\)), dopo aver osservato un dato o evidenza (\(A\)):
- \(P(B)\) (prior): è la probabilità iniziale assegnata all’evento \(B\) prima di osservare il dato \(A\). Rappresenta la nostra conoscenza pregressa o il nostro grado iniziale di fiducia.
- \(P(A \mid B)\) (verosimiglianza): è la probabilità di osservare il dato \(A\) nell’ipotesi che \(B\) sia vero. Indica quanto il dato sia compatibile con l’ipotesi.
- \(P(B \mid A)\) (posterior): è la probabilità aggiornata, cioè la nostra nuova credenza sull’evento \(B\) dopo aver osservato il dato \(A\).
- \(P(A)\) (evidenza): è la probabilità marginale del dato osservato, calcolata sommando o integrando su tutte le possibili ipotesi alternative che potrebbero aver generato tale dato. Agisce da termine di normalizzazione per garantire che la somma delle probabilità a posteriori sia uguale a 1.
28.1.3 Applicazioni della regola di Bayes
Nella pratica, l’inferenza bayesiana si svolge tipicamente nel seguente modo:
- Si parte da uno spazio delle ipotesi \(\mathcal{H}\), ovvero un insieme di tutte le possibili spiegazioni o modelli che potrebbero aver generato i dati osservati \(D\).
- A ciascuna ipotesi \(H \in \mathcal{H}\) viene assegnata una probabilità a priori \(P(H)\) che riflette la nostra fiducia iniziale.
- Una volta raccolti i dati \(D\), aggiorniamo le probabilità delle ipotesi usando la formula:
\[ P(H \mid D) = \frac{P(D \mid H) \, P(H)}{P(D)}, \tag{28.2}\]
dove:
- \(P(D \mid H)\) è la verosimiglianza, cioè la probabilità che l’ipotesi \(H\) abbia generato i dati \(D\);
- \(P(D)\) è la probabilità marginale (evidenza), calcolata considerando tutte le possibili ipotesi:
\[ P(D) = \sum_{H' \in \mathcal{H}} P(D \mid H')P(H'), \]
nel caso discreto, oppure:
\[ P(D) = \int_{\mathcal{H}} P(D \mid H')P(H') \, dH', \]
nel caso continuo.
28.1.4 Il processo iterativo dell’aggiornamento bayesiano
L’inferenza bayesiana è intrinsecamente iterativa. Ogni volta che emergono nuovi dati, la distribuzione a posteriori \(P(H \mid D)\) ottenuta diventa il nuovo prior per aggiornamenti successivi. Questo permette un affinamento continuo delle credenze, adattando la nostra comprensione del mondo in modo dinamico e coerente con le nuove evidenze.
28.1.4.1 Considerazioni pratiche
Spesso, il calcolo diretto della probabilità marginale \(P(D)\) — corrispondente, nell’esempio precedente, alla probabilità di osservare lo specifico messaggio ricevuto sul dispositivo mobile — risulta computazionalmente oneroso, in particolare quando lo spazio delle ipotesi è discreto o continuo di alta dimensionalità. Per ovviare a questa limitazione, vengono impiegati metodi numerici approssimativi come il Campionamento Monte Carlo o le inferenze variazionali, tecniche che permettono di stimare in modo efficiente tali grandezze probabilistiche anche in scenari reali complessi, senza ricorrere a calcoli analitici esatti.
In sintesi, la regola di Bayes fornisce uno schema formale e razionale per integrare informazioni pregresse con nuove osservazioni. Questa capacità di aggiornare continuamente le nostre credenze rappresenta il cuore del ragionamento probabilistico e rende l’approccio bayesiano uno strumento fondamentale in molte discipline scientifiche e applicazioni pratiche.
28.1.5 Applicazioni in psicologia
Negli ultimi anni, i modelli bayesiani hanno acquisito un ruolo centrale nello studio della cognizione umana, fornendo una struttura formale per comprendere come il cervello costruisca rappresentazioni del mondo e prenda decisioni sulla base di dati incerti. Come discusso da Griffiths et al. (2024), questi modelli sono stati applicati a una vasta gamma di processi cognitivi, tra cui:
- Apprendimento e generalizzazione: i modelli bayesiani descrivono come gli individui apprendano nuove categorie e concetti sulla base di dati limitati e rumorosi (Tenenbaum, Griffiths, & Kemp, 2006).
- Percezione e interpretazione sensoriale: la percezione visiva e il riconoscimento di oggetti possono essere spiegati come un’inferenza bayesiana sulla base di segnali sensoriali ambigui (Domini & Caudek, 2003; Yuille & Kersten, 2006).
- Controllo motorio: il sistema motorio umano sembra ottimizzare i movimenti attraverso una combinazione di modelli interni e aggiornamenti bayesiani (Kording & Wolpert, 2006).
- Memoria e recupero delle informazioni: i processi mnemonici, come il richiamo della memoria semantica, possono essere modellati come inferenze bayesiane basate su conoscenze pregresse (Steyvers, Griffiths, & Dennis, 2006).
- Acquisizione del linguaggio: l’apprendimento del linguaggio nei bambini può essere descritto attraverso processi probabilistici che permettono di inferire le strutture grammaticali sulla base di dati linguistici limitati (Chater & Manning, 2006; Xu & Tenenbaum, in press).
- Apprendimento causale: la capacità di inferire relazioni causali dagli eventi osservati è coerente con un modello bayesiano, in cui la mente valuta la probabilità di una relazione causale sulla base dell’evidenza disponibile (Griffiths & Tenenbaum, 2005, 2007).
- Ragionamento e decisione: il ragionamento simbolico e il processo decisionale possono essere formalizzati come un aggiornamento bayesiano delle credenze sulla base di nuove informazioni (Oaksford & Chater, 2001).
- Cognizione sociale: le inferenze sulle intenzioni e credenze altrui possono essere modellate attraverso processi bayesiani, permettendo di spiegare come le persone comprendano il comportamento altrui (Baker, Tenenbaum, & Saxe, 2007).
28.1.5.1 L’inferenza bayesiana nella cognizione umana
Un tema centrale che emerge da questi programmi di ricerca è la seguente domanda: come fa la mente umana ad andare oltre i dati dell’esperienza? In altre parole, come riesce il cervello a costruire modelli complessi del mondo a partire da informazioni limitate e spesso ambigue?
L’approccio bayesiano propone che il cervello utilizzi un processo di inferenza probabilistica per aggiornare continuamente le proprie credenze, combinando informazioni pregresse con nuove osservazioni per affinare le proprie rappresentazioni mentali. Questo meccanismo consente di spiegare molte delle capacità cognitive umane, dall’apprendimento rapido di nuove categorie alla capacità di adattarsi a un ambiente mutevole, fino alla formulazione di inferenze sociali e alla presa di decisioni in condizioni di incertezza.
L’adozione dei modelli bayesiani nella psicologia cognitiva ha portato a una nuova comprensione della mente come sistema predittivo, in grado di formulare ipotesi probabilistiche sugli eventi futuri e di correggerle dinamicamente sulla base dell’esperienza. Questo approccio ha profonde implicazioni per lo studio del comportamento umano e per lo sviluppo di nuove tecniche di modellizzazione nei campi della psicologia, delle neuroscienze e dell’intelligenza artificiale.
28.2 Test medici
Uno degli esempi più comuni per comprendere il teorema di Bayes riguarda i test diagnostici.
In un secondo esempio, vogliamo valutare l’affidabilità di un test per l’HIV e capire come la nostra stima di infezione cambia dopo due test consecutivi positivi. Utilizzeremo la regola di Bayes per aggiornare la probabilità di avere l’HIV man mano che otteniamo nuovi risultati.
28.3 La fallacia del procuratore
Il teorema di Bayes non trova applicazione solo in campo medico, ma è essenziale anche nei procedimenti giudiziari. Infatti, fraintendimenti nell’interpretazione di probabilità e statistiche possono portare a gravi errori di giudizio. Uno degli errori più comuni in questo contesto è la fallacia del procuratore.
28.4 La probabilità inversa
Gli esempi precedenti mostrano due tipi di domande probabilistiche fondamentali:
-
Probabilità diretta
- “Qual è la probabilità di osservare un certo risultato, supponendo che l’ipotesi sia vera?”
-
Probabilità inversa
- “Qual è la probabilità che un’ipotesi sia vera, dati i risultati osservati?”
Questa distinzione è cruciale per comprendere il teorema di Bayes e le differenze tra l’approccio frequentista e quello bayesiano alla probabilità.
28.4.1 Esempi
Prendiamo come esempio il lancio di una moneta:
Probabilità diretta:
Se riteniamo che la moneta sia equa (cioè \(P(\text{Testa}) = 0{.}5\)), qual è la probabilità di osservare zero teste in cinque lanci? In questo caso, stiamo calcolando \[ P(D \mid H) = (0.5)^5 = 0.03125, \] dove \(D\) rappresenta il dato (“zero teste in cinque lanci”) e \(H\) l’ipotesi (“la moneta è equa”).Probabilità inversa:
Ora poniamo la domanda opposta. Abbiamo lanciato una moneta cinque volte e osservato zero teste. Quanto è probabile che la moneta sia davvero equa? Qui vogliamo conoscere \(\displaystyle P(H \mid D)\) (l’ipotesi “la moneta è equa” dopo aver visto il risultato) anziché \(P(D \mid H)\). Per rispondere correttamente, ci occorre il teorema di Bayes, che combina la probabilità dei dati (\(P(D \mid H)\)) con una stima iniziale (il prior) su quanto riteniamo probabile l’ipotesi prima dell’osservazione.
28.4.2 Dalla probabilità diretta alla probabilità inversa: il contributo di Bayes
Per lungo tempo, la teoria della probabilità si è occupata quasi esclusivamente di probabilità diretta: “se l’ipotesi è vera, qual è la probabilità di osservare un certo esito?”. Nel XVIII secolo, Thomas Bayes capovolse la prospettiva, concentrandosi su come determinare la probabilità dell’ipotesi a partire dalle evidenze disponibili, introdusse cioè l’idea di probabilità inversa. Questa svolta ha aperto la strada a ciò che oggi chiamiamo inferenza bayesiana, permettendo di aggiornare in modo sistematico e rigoroso la credibilità di un’ipotesi dopo aver osservato nuovi dati.
28.4.3 L’impatto della probabilità inversa
La possibilità di stimare \(\displaystyle P(H \mid D)\), cioè la probabilità di un’ipotesi data l’evidenza osservata, si è rivelata fondamentale in molti ambiti:
-
Scienza e sperimentazione: quanto è probabile che un’ipotesi sia vera dopo aver raccolto i dati di un esperimento?
-
Medicina: quanto è probabile che un paziente abbia una certa malattia, se il test diagnostico è positivo?
- Giustizia: quanto è probabile che una persona sia colpevole, se il DNA trovato sulla scena del crimine combacia col suo?
In tutti questi casi non basta calcolare la probabilità dei dati “dato un’ipotesi” \(\bigl(P(D \mid H)\bigr)\); occorre invece aggiornare la stima della probabilità dell’ipotesi alla luce dei dati \(\bigl(P(H \mid D)\bigr)\).
In sintesi, l’inferenza bayesiana risponde appunto a questa seconda domanda, passando dalla probabilità diretta alla probabilità inversa in modo rigoroso. Grazie al teorema di Bayes, possiamo combinare in modo coerente le nostre conoscenze pregresse (il cosiddetto prior) con le evidenze raccolte, ottenendo una probabilità a posteriori che rappresenta la nostra nuova convinzione. Senza questa prospettiva, gran parte dei problemi scientifici e delle decisioni pratiche resterebbe priva di un metodo per collegare razionalmente le evidenze empiriche alle ipotesi da verificare.
Riflessioni conclusive
In questo capitolo abbiamo esplorato vari esempi, principalmente nel campo medico e forense, per illustrare come il teorema di Bayes permetta di combinare le informazioni derivate dalle osservazioni con le conoscenze precedenti (priori), aggiornando così il nostro grado di convinzione rispetto a un’ipotesi. Il teorema di Bayes fornisce un meccanismo razionale, noto come “aggiornamento bayesiano”, che ci consente di ricalibrare le nostre convinzioni iniziali alla luce di nuove evidenze.
Una lezione fondamentale che il teorema di Bayes ci insegna, sia nella ricerca scientifica che nella vita quotidiana, è che spesso non ci interessa tanto conoscere la probabilità che qualcosa accada assumendo vera un’ipotesi, quanto piuttosto la probabilità che un’ipotesi sia vera, dato che abbiamo osservato una certa evidenza. In altre parole, la forza del teorema di Bayes sta nella sua capacità di affrontare direttamente il problema inverso, cioè come dedurre la verità di un’ipotesi a partire dalle osservazioni.
Il framework bayesiano per l’inferenza probabilistica offre un approccio generale per comprendere come i problemi di induzione possano essere risolti in linea di principio e, forse, anche come possano essere affrontati dalla mente umana.
In questo capitolo ci siamo concentrati sull’applicazione del teorema di Bayes utilizzando probabilità puntuali. Tuttavia, il teorema esprime pienamente il suo potenziale quando sia l’evidenza che i gradi di certezza a priori delle ipotesi sono rappresentati attraverso distribuzioni di probabilità continue. Questo sarà l’argomento centrale nella prossima sezione della dispensa, dove approfondiremo il flusso di lavoro bayesiano e l’uso di distribuzioni continue nell’aggiornamento bayesiano.
Esercizi
È facile trovare online esercizi sull’applicazione del teorema di Bayes. Ad esempio, consiglio gli esercizi 1–6 disponibili sulla seguente pagina web.