Parte 6: Entropia
Data Science per psicologi
Benvenuti
Prefazione
Parte 1: Nozioni di base
1
Concetti chiave
2
La misurazione in psicologia
3
Variabili e distribuzioni di frequenza
4
Indici di posizione e di scala
5
Le relazioni tra variabili
Parte 2: Il calcolo delle probabilità
6
La logica dell’incerto
7
Probabilità condizionata
8
L’interpretazione soggettivista della probabilità
9
Probabilità congiunta
10
La densità di probabilità
11
Valore atteso e varianza
Parte 3: Distribuzioni di v.c. discrete e continue
12
Distribuzioni di v.c. discrete
13
Distribuzioni di v.c. continue
14
La funzione di verosimiglianza
Parte 4: Inferenza bayesiana
15
Credibilità, modelli e parametri
16
Pensare ad una proporzione in termini soggettivi
17
Distribuzioni coniugate
18
L’influenza della distribuzione a priori
19
Approssimazione della distribuzione a posteriori
20
Il modello beta-binomiale in linguaggio Stan
21
Diagnostica delle catene markoviane
22
Sintesi a posteriori
23
La predizione bayesiana
24
Inferenza sul parametro
\(\mu\)
(media di una v.c. Normale)
Parte 5: Regressione lineare
25
Introduzione
26
Regressione lineare bivariata
27
Modello di regressione in linguaggio Stan
28
Inferenza sul modello lineare
29
Confronto tra due gruppi indipendenti
30
Predictive checks
31
Confronto tra le medie di tre o più gruppi
32
Modello gerarchico
33
Modello gerarchico: simulazioni
Parte 6: Entropia
34
Entropia
35
La divergenza di Kullback-Leibler
36
Criterio di informazione e convalida incrociata
Riferimenti bibliografici
Appendici
A
Simbologia di base
B
Numeri binari, interi, razionali, irrazionali e reali
C
Insiemi
D
Simbolo di somma (sommatorie)
E
Le catene di Markov
F
Programmare in Stan
Parte 6: Entropia
Codice
33
Modello gerarchico: simulazioni
34
Entropia
Source Code
# Parte 6: Entropia {#sec-entropy}