here::here("code", "_common.R") |>
source()
# Load packages
if (!requireNamespace("pacman")) install.packages("pacman")
pacman::p_load(rtdists)5 Dalla descrizione alla spiegazione
Obiettivi del capitolo
- Comprendere la distinzione tra modelli descrittivi e modelli meccanicistici.
- Riconoscere il ruolo dei modelli formali nella costruzione di teorie psicologiche.
- Vedere come l’inferenza bayesiana si collega alla valutazione dei modelli.
- Consulta Why is the Rescorla-Wagner model so influential? (Soto et al., 2023).
5.1 Modelli fenomenologici: descrivere senza spiegare
I modelli fenomenologici si limitano a descrivere le relazioni osservabili tra le variabili psicologiche, spesso ricorrendo a formule matematiche o rappresentazioni statistiche. Un esempio classico è la legge psicofisica che descrive la relazione tra stimolazione sensoriale e risposta percepita. Sebbene questi modelli possano essere estremamente predittivi, non forniscono informazioni sul “come” e sul “perché” un certo fenomeno si verifica. Non specificano, cioè, le entità e le attività organizzate che lo generano (per esempio, i meccanismi cognitivi, i neuroni o i moduli funzionali).
Come sottolineato da Povich (2025), i modelli fenomenologici possono essere accurati, compatti e persino predittivi, ma non necessariamente esplicativi. Questi modelli non sono in grado di rispondere a domande controfattuali del tipo “che cosa succederebbe se…?” e non permettono un controllo diretto sul fenomeno. Questa limitazione si rivela particolarmente problematica in un’epoca in cui la replicabilità richiede non solo la constatazione di un effetto, ma anche la comprensione delle sue condizioni causali e contestuali.
5.2 Dai modelli meccanicistici alla modellazione computazionale
Un modello meccanicistico cerca di rappresentare le componenti causali di un fenomeno. Secondo una definizione ampiamente condivisa, un meccanismo è “una collezione organizzata di entità e attività che produce o mantiene un certo fenomeno” (Bechtel, 2009). I modelli meccanicistici hanno l’obiettivo di descrivere questi meccanismi, specificando il modo in cui le componenti interagiscono per generare il comportamento osservato.
Nel contesto della psicologia, i modelli meccanicistici vanno oltre la semplice descrizione delle correlazioni osservabili. Questi modelli cercano di identificare le strutture cognitive, i processi neurali, le dinamiche corpo-ambiente o le interazioni tra i diversi livelli (funzionale, computazionale e implementazionale). Un esempio ben noto è il modello della long-term potentiation (LTP) nella memoria, che spiega come le variazioni dei recettori NMDA e AMPA e della concentrazione di ioni calcio e magnesio determinano il rafforzamento sinaptico, un chiaro esempio di spiegazione meccanicistica.
Oggi, molti modelli meccanicistici in psicologia sono implementati come modelli computazionali, ovvero rappresentazioni formali che simulano i processi interni ipotizzati. Attraverso la simulazione e la stima dei parametri, questi modelli permettono di inferire il funzionamento dei meccanismi sottostanti a partire dal comportamento osservabile. I modelli computazionali soddisfano i criteri della spiegazione meccanicistica quando forniscono informazioni su entità ipotetiche (come credenze, soglie decisionali, accumulo di evidenza) e sulle loro interazioni causali.
5.3 Differenza epistemica: distinguere tra spiegazione e predizione
Un aspetto cruciale per distinguere tra spiegazioni fenomenologiche e meccanicistiche risiede nel fatto che solo queste ultime soddisfano i criteri propri del potere esplicativo genuino. Come evidenzia Povich (2025), un modello esplicativo deve permettere di:
- rispondere a domande controfattuali (“Cosa accadrebbe se alterassimo questa specifica componente?”);
- fornire la base teorica per manipolare o controllare attivamente il fenomeno.
Questi criteri sono essenziali per affrontare la crisi della replicabilità nella ricerca. Limitarsi a sapere che un effetto si manifesta in determinate condizioni è di scarsa utilità pratica se non si comprende perché esso si verifica e quali meccanismi sottostanti ne determinano la stabilità o la variabilità al mutare del contesto.
5.4 Cosa rende un modello meccanicistico?
Una fonte frequente di equivoci è l’idea che un modello, per essere considerato meccanicistico, debba necessariamente assomigliare a una macchina con parti concrete (come i neuroni o le aree cerebrali) e connessioni materiali tra di esse. Questa visione, tuttavia, è una semplificazione ingannevole.
Ciò che qualifica un modello come meccanicistico non è la sua forma visiva o metaforica, ma la sua capacità di rappresentare l’organizzazione causale del processo che genera un certo fenomeno. Un modello può essere espresso mediante equazioni matematiche, algoritmi, reti neurali o simulazioni computazionali e, nonostante ciò, fornire una spiegazione meccanicistica se specifica in che modo le componenti di un sistema interagiscono per produrre l’effetto osservato.
Per approfondire questa distinzione, è utile richiamare i tre livelli di analisi proposti da Marr (2010), un punto di riferimento classico nella psicologia cognitiva computazionale:
- Livello computazionale: cosa fa il sistema e perché – qual è il problema che risolve e quale logica lo guida.
- Livello algoritmico: come lo fa – quali rappresentazioni interne e quali procedure di trasformazione (algoritmi) utilizza.
- Livello implementativo: con quali mezzi fisici è realizzato – ad esempio, attraverso circuiti neurali o hardware.
Questa tripartizione chiarisce che un modello può essere meccanicistico anche senza descrivere direttamente il substrato biologico, purché specifichi in modo formale come un sistema risolve un dato problema e quali regole governano il funzionamento delle sue componenti.
In psicologia, modelli computazionali che operano a livello algoritmico o computazionale, come il modello di Rescorla-Wagner o il Drift Diffusion Model (DDM), sono pienamente compatibili con un approccio meccanicistico, anche se non rappresentano esplicitamente l’implementazione biologica.
Questi modelli sono “meccanicistici” perché:
- definiscono entità funzionali (ad esempio, valore atteso, evidenza accumulata);
- specificano le regole di interazione tra tali entità (aggiornamento, integrazione, superamento di soglie);
- generano il comportamento osservato come esito di queste interazioni dinamiche.
In sintesi, non è la forma del modello a determinarne lo statuto meccanicistico, ma la funzione esplicativa che esso assolve all’interno di una teoria. I sistemi dinamici, i modelli bayesiani gerarchici, le reti neurali artificiali e le architetture simboliche possono tutti contribuire a spiegazioni meccanicistiche, a condizione che mostrino come un dato comportamento emerga dall’organizzazione e dall’interazione di componenti definite.
5.5 Perché i modelli meccanicistici rafforzano la riproducibilità
La crisi della riproducibilità può essere vista come il sintomo di un’eccessiva fiducia nei modelli fenomenologici che mancano di profondità esplicativa. I modelli meccanicistici, al contrario:
- esplicitano gli assunti causali e strutturali;
- permettono verifiche controfattuali e manipolazioni;
- chiariscono quando e perché un effetto dovrebbe ripetersi o variare;
- sono meno vulnerabili al cherry picking e agli effetti di contesto non dichiarati;
- i modelli computazionali meccanicistici, come il DDM o il modello di Rescorla-Wagner, consentono di simulare e verificare quantitativamente le ipotesi sui meccanismi interni, rendendo l’inferenza psicologica più trasparente e replicabile.
In breve, un modello meccanicistico non si limita a dire che “A predice B”. Mostra anche come A produce B e in quali condizioni questo accade.
Riflessioni conclusive
La crisi di replicabilità che attanaglia la psicologia contemporanea richiede un profondo ripensamento metodologico, volto a superare i modelli puramente descrittivi in favore di paradigmi meccanicistici e computazionali. A differenza dei primi, questi ultimi non si accontentano di predire esiti comportamentali, ma mirano a identificare i processi algoritmici e i meccanismi latenti che li generano. In tal modo, trasformano domande di ricerca generiche in ipotesi formalizzate e rigorosamente verificabili, tracciando un percorso causale dall’organizzazione interna del sistema al comportamento osservabile.
L’adozione di un approccio computazionale in psicologia cognitiva consente di superare i limiti intrinseci dell’analisi descrittiva, fornendo un quadro matematico solido per valutare ipotesi sui processi mentali. L’integrazione di modelli di apprendimento e modelli decisionali, in particolare, permette di costruire rappresentazioni unificate e più profonde dei sistemi cognitivi che sottendono il comportamento umano, con ricadute concrete sia nella ricerca di base che in ambito applicativo e clinico.
Questa prospettiva si colloca organicamente nel quadro emergente della psichiatria computazionale e della modellazione bayesiana della cognizione, il cui obiettivo ultimo non è meramente descrittivo, ma inferenziale: individuare quali processi interni risultino più plausibili alla luce dei dati osservati. La formalizzazione computazionale non solo accresce il potere esplicativo dei modelli, ma potenzia anche la capacità di inferenza e generalizzazione, due pilastri fondamentali per lo sviluppo di una scienza psicologica cumulativa, robusta e realmente replicabile.
- Che cosa descrive il modello di Rescorla-Wagner?
- Qual è il ruolo del parametro α nel modello di Rescorla-Wagner?
- Quale funzione matematica viene utilizzata per modellare il bilanciamento tra esplorazione ed esploitazione nel modello di Rescorla-Wagner?
- Quali sono i principali parametri del Drift Diffusion Model (DDM)?
- In che modo il DDM spiega il compromesso tra velocità e accuratezza nelle decisioni?
Il modello di Rescorla-Wagner descrive come gli individui apprendano le associazioni tra stimoli e risposte in base all’errore di previsione. L’aspettativa di ricompensa viene aggiornata attraverso l’esperienza, con un processo regolato dal tasso di apprendimento (\(\alpha\)).
Il parametro \(\alpha\) (tasso di apprendimento) determina quanto velocemente un individuo aggiorna le proprie aspettative in base all’errore di previsione. Se \(\alpha\) è alto, l’apprendimento è rapido; se è basso, l’individuo si basa maggiormente sulle esperienze passate.
La funzione Softmax viene utilizzata per modellare il bilanciamento tra esplorazione e sfruttamento. Essa regola la probabilità di scegliere un’opzione in base al valore atteso e alla temperatura della scelta (\(\beta\)).
-
I principali parametri del DDM sono:
- tasso di drift (\(v\)): velocità con cui viene accumulata l’evidenza;
-
separazione delle soglie (\(a\)): distanza tra le soglie decisionali;
-
tempo di non-decisione (\(t_0\)): tempo impiegato per processi indipendenti dall’accumulo dell’evidenza;
- bias iniziale (\(z\)): punto di partenza dell’accumulo dell’evidenza.
Il DDM spiega il compromesso tra velocità e accuratezza attraverso la separazione delle soglie decisionali (\(a\)). Se le soglie sono più vicine, le decisioni sono più rapide ma meno accurate; se sono più distanti, le decisioni sono più lente ma più precise.
sessionInfo()
#> R version 4.5.2 (2025-10-31)
#> Platform: aarch64-apple-darwin20
#> Running under: macOS Tahoe 26.2
#>
#> Matrix products: default
#> BLAS: /System/Library/Frameworks/Accelerate.framework/Versions/A/Frameworks/vecLib.framework/Versions/A/libBLAS.dylib
#> LAPACK: /Library/Frameworks/R.framework/Versions/4.5-arm64/Resources/lib/libRlapack.dylib; LAPACK version 3.12.1
#>
#> locale:
#> [1] C.UTF-8/UTF-8/C.UTF-8/C/C.UTF-8/C.UTF-8
#>
#> time zone: Europe/Rome
#> tzcode source: internal
#>
#> attached base packages:
#> [1] stats graphics grDevices utils datasets methods base
#>
#> other attached packages:
#> [1] rtdists_0.11-5 ragg_1.5.0 tinytable_0.15.2
#> [4] withr_3.0.2 systemfonts_1.3.1 patchwork_1.3.2
#> [7] ggdist_3.3.3 tidybayes_3.0.7 bayesplot_1.15.0
#> [10] ggplot2_4.0.1 reliabilitydiag_0.2.1 priorsense_1.2.0
#> [13] posterior_1.6.1 loo_2.9.0 rstan_2.32.7
#> [16] StanHeaders_2.32.10 brms_2.23.0 Rcpp_1.1.0
#> [19] sessioninfo_1.2.3 conflicted_1.2.0 janitor_2.2.1
#> [22] matrixStats_1.5.0 modelr_0.1.11 tibble_3.3.0
#> [25] dplyr_1.1.4 tidyr_1.3.2 rio_1.2.4
#> [28] here_1.0.2
#>
#> loaded via a namespace (and not attached):
#> [1] gridExtra_2.3 inline_0.3.21 sandwich_3.1-1
#> [4] rlang_1.1.7 magrittr_2.0.4 multcomp_1.4-29
#> [7] snakecase_0.11.1 otel_0.2.0 compiler_4.5.2
#> [10] vctrs_0.6.5 gsl_2.1-9 stringr_1.6.0
#> [13] pkgconfig_2.0.3 arrayhelpers_1.1-0 fastmap_1.2.0
#> [16] backports_1.5.0 rmarkdown_2.30 purrr_1.2.1
#> [19] xfun_0.55 cachem_1.1.0 jsonlite_2.0.0
#> [22] broom_1.0.11 parallel_4.5.2 R6_2.6.1
#> [25] stringi_1.8.7 RColorBrewer_1.1-3 lubridate_1.9.4
#> [28] estimability_1.5.1 knitr_1.51 zoo_1.8-15
#> [31] pacman_0.5.1 Matrix_1.7-4 splines_4.5.2
#> [34] timechange_0.3.0 tidyselect_1.2.1 abind_1.4-8
#> [37] codetools_0.2-20 curl_7.0.0 pkgbuild_1.4.8
#> [40] lattice_0.22-7 bridgesampling_1.2-1 S7_0.2.1
#> [43] coda_0.19-4.1 evaluate_1.0.5 survival_3.8-3
#> [46] RcppParallel_5.1.11-1 pillar_1.11.1 tensorA_0.36.2.1
#> [49] checkmate_2.3.3 stats4_4.5.2 distributional_0.5.0
#> [52] generics_0.1.4 rprojroot_2.1.1 rstantools_2.5.0
#> [55] scales_1.4.0 xtable_1.8-4 glue_1.8.0
#> [58] emmeans_2.0.1 tools_4.5.2 mvtnorm_1.3-3
#> [61] grid_4.5.2 QuickJSR_1.8.1 colorspace_2.1-2
#> [64] nlme_3.1-168 cli_3.6.5 evd_2.3-7.1
#> [67] textshaping_1.0.4 expm_1.0-0 svUnit_1.0.8
#> [70] Brobdingnag_1.2-9 V8_8.0.1 gtable_0.3.6
#> [73] digest_0.6.39 msm_1.8.2 TH.data_1.1-5
#> [76] htmlwidgets_1.6.4 farver_2.1.2 memoise_2.0.1
#> [79] htmltools_0.5.9 lifecycle_1.0.5 MASS_7.3-65