Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Appunti Statistica 1, Appunti di Statistica

Appunti del corso tenuto dal Prof. Mancini, materiale preso da slides e integrato con quanto spiegato a lezione dal professore.

Tipologia: Appunti

2021/2022

Caricato il 24/01/2024

ricc-va-2
ricc-va-2 🇮🇹

4 documenti

1 / 56

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Appunti Statistica 1 e più Appunti in PDF di Statistica solo su Docsity! Appunti Statistica 1 USI Appunti di Statistica 1 – Indice 1 - Perché la statistica ……………………………………………………………………………………….2 2 - Descrizione grafica dei dati, distribuzione di frequenza ………………………………….3 3a - Descrizione numerica dei dati: misure di centralità ……………………………………...5 3b - Descrizione numerica dei dati: misure di centralità ……………………………………...7 4a - Probabilità, esperimento aleatorio, esito, evento ………………………………………10 4b - Probabilità, assiomi, regole di calcolo …………………………………………………….12 4c - Probabilità condizionata e indipendenza …………………………………………………15 4d - Teorema di Bayes, overinvolvement ratios ………………………………………………17 5a - Variabili aleatorie discrete …………………………………………………………………...19 5b - Variabili aleatorie discrete: valore atteso, varianza …………………………………….23 5c - Variabili aleatorie discrete: distribuzione binomiale, Poisson ………………………..26 6a - Variabili aleatorie continue: introduzione ………………………………………………...32 6b - Variabili aleatorie continue: distribuzione normale …………………………………….35 6c - Variabili aleatorie continue, distribuzione normale ed esponenziale ……………….38 7a - Legge dei Grandi Numeri ……………………………………………………………………..46 7b - Teorema del Limite Centrale ……………………………………………………………………..50 7c - Applicazione del Teorema del Limite Centrale e campionamento …………………………...52 Appunti Statistica 1 USI SP22 2 Statistica 1 – Perché la statistica? [1] Cos’è la Statistica? Scienza che si occupa di raccogliere e analizzare dati al fine di estrarre informazioni, informazioni utili per prendere decisioni in condizioni d’incertezza. Per effettuare decisioni oculate sono dunque necessari dati accurati e analisi statistiche rigorose. La statistica permette inoltre di quantificare l’incertezza nei vari contesti. 2 tipi di statistica: • Statistica descrittiva: Metodi grafici e numerici per la sintesi e l’elaborazione di dati. • Statistica inferenziale: Metodi per ottenere previsioni, stime di parametri e verifiche di ipotesi. Popolazione e campione: • Popolazione: Insieme di tutte le unità oggetto di studio, es. la dimensione della popolazione N. • Campione: Sottoinsieme della popolazione, unità osservate, dimensione del campione indicata con n, 𝑛 ≪ 𝑁 • Campione casuale: Campione scelto casualmente, ogni unità aveva la stessa probabilità di essere scelta (1/N). Parametro e statistica: • Parametro: Caratteristica specifica della popolazione, sconosciuto agli statistici, se fosse stato noto non ci sarebbe stato bisogno della statistica. • Statistica: Caratteristica specifica del campione, funzione dei dati ottenuta svolgendo calcoli o analisi nel campione. Appunti Statistica 1 USI SP22 5 Statistica 1 – Descrizione numerica dei dati: misure di centralità [3a] Misure di centralità: In molti casi, i dati tendono a concentrarsi intorno ad un particolare valore, danno una misura quantitativa del fenomeno; importante in innumerevoli contesti, media/mediana/moda sono tipiche misure di centralità. Moda: Modalità che si presenta il maggior numero di volte, stesso concetto della moda “fashion”, un vestito è di moda quando lo indossa la maggior parte delle persone. Esempio: Goal segnati dalla svizzera nelle ultime 5 partite: {1, 2, 0, 1}, la Moda = 1. Si può calcolare sia per dati numerici che categorici ma non può essere unica in quanto non tiene conto di tutti i dati osservati. Media: Somma dei valori osservati diviso il numero di osservazioni: • Se i dati si riferiscono all’intera popolazione N, la media della popolazione, µ è un parametro: 𝜇 = 𝑥! + 𝑥"+ . . . +𝑥# 𝑁 = ∑ 𝑥$# $%! 𝑁 • Se i dati si riferiscono ad un campione di dimensione 𝑛 ≪ 𝑁, la media campionaria, ?̅?, è una statistica: ?̅? = 𝑥! + 𝑥"+ . . . +𝑥& 𝑛 = ∑ 𝑥$& $%! 𝑛 Esempio: ?̅? = 2 + 0 + 1 + 2 4 = 1.25 Due osservazioni: 1. La media non corrisponde ad un valore osservato dai dati, 2. Possiamo calcolare la media solo di dati numerici. L’istogramma delle frequenze è in equilibrio quando è sostenuto nel punto della media, il baricentro dell’istogramma di frequenze, quindi la media è all’interno della distribuzione di dati. Appunti Statistica 1 USI SP22 6 Consideriamo la media campionaria dei dati {𝑥!, 𝑥", … , 𝑥&}: ?̅? = 𝑥! + 𝑥"+ . . . +𝑥& 𝑛 = ∑ 𝑥$& $%! 𝑛 Definiamo deviazione dalla media la differenza: 𝑥$ − ?̅?, con i=1,…,n. La media è quel valore ?̅? tale che la somma delle deviazioni da ?̅? sono uguali a zero: L(𝑥$ − ?̅?) = 0 & $%! Ciò indica che la media è sensibile ai valori estremi o outlier, osservazioni di valori grandi/piccoli rispetto alla maggior parte dei valori osservati. In un istogramma si trovano lontani dal centro dei dati, la moda non è sensibile agli outlier. Mediana: Osservazione centrale di un insieme di osservazioni ordinate in modo crescente o non. • Numero di osservazioni n dispari à la mediana è l’osservazione centrale. • Numero di osservazioni n pari à la mediana è la media delle due osservazioni centrali. Non è influenzata dagli outliers, divide la distribuzione delle frequenze in dati parti uguali: 50% osservazioni a sinistra e 50% a destra. Se la distribuzione è simmetrica media e mediana coincidono, se non lo è allora è asimmetrica positiva, la media tende ad essere maggiore della mediana, nel caso di asimmetria negativa è vero il contrario: media < mediana. La differenza tra media e mediana è una misura di asimmetria della distribuzione di frequenza. Media e mediana: La media rimane una misura di centralità, ha un ruolo più importante della mediana in statistica inferenziale, in generale media e mediana nella statistica descrittiva danno due informazioni diverse, complementari ed entrambi utili. Appunti Statistica 1 USI SP22 7 Statistica 1 – Descrizione numerica dei dati: misure di centralità [3b] Misure di variabilità: Danno una descrizione completa dei dati, quantificano la variabilità dei dati, range interquartile e deviazione standard sono tra le misure più comuni di variabilità. Range o campo di variazione: Differenza tra massimo e minimo dei valori osservati, es. Studente X ha voti {6, 7, 8}, studente Y ha voti {5, 7, 9}, Range di voti X =8-6= 2, range Y =9-5= 4. Semplice da calcolare, estremamente sensibile agli outliers. Quantile: Il quantile al livello a, indicato con 𝑞a è il valore dei dati che divide la distribuzione di frequenza relativa in due parti, a e (1-a). Una frazione a delle osservazioni sono minori di 𝑞a. Per calcolare un quantile ordiniamo le osservazioni in modo crescente e troviamo quel valore che divide la distribuzione in due parti. All’interno di un istogramma il quantile è il valore sull’asse delle x. • Definizione: Al livello a ∈ (0,1), 𝑞a, è il valore più piccolo tale per cui la sua frequenza relativa cumulata è maggiore o uguale a a. Appunti Statistica 1 USI SP22 10 Statistica 1 – Probabilità, esperimento aleatorio, esito, evento [4a] Fondamenta della probabilità: Costruiamo lo studio della probabilità partendo dalle fondamenta, aggiungendo gradualmente elementi e sviluppando un linguaggio per riferirci ad oggetti probabilistici. • Esperimento aleatorio: Processo che porterà due o più risultati senza che si possa prevedere con certezza quale si realizzerà (lancio di un dado, vendite future), in ogni espserimento bisogna elencare tutti i possibili risultati. • Evento elementare: Solo un evento elementare si realizza alla fine dell’esperimento aleatorio. • Spazio campionario: S, è l’insieme di tutti i possibili risultati o eventi elementari, es. Lancio del dado S = {1,2,..} • Evento: E, è un sottoinsieme di eventi elemntari dello spazio campionario, es. Numero pari al lancio del dado E = {2,4,6} Eventi e insiemi: In molte applicazioni siamo interessati al verificarsi di uno o più eventi, dato che gli eventi sono insiemi, utilizziamo le operazioni tra insiemi per trattare più eventi. Le operazioni tra insiemi sono intuitive, grazie ai diagrammi di Venn e sono alla base del calcolo di probabilità. Operazioni e concetti di base Partizione Appunti Statistica 1 USI SP22 11 Partizione: Proprietà fondamentale della partizione: dato un evento D e una partizione {𝐴!, 𝐴", 𝐴-, 𝐴., 𝐴)} dello spazio campionario S (rettangolo azzurro): 𝐷 = (𝐷 ∩ 𝐴!) ∪ (𝐷 ∩ 𝐴") ∪ (𝐷 ∩ 𝐴-) ∪ (𝐷 ∩ 𝐴.) ∪ (𝐷 ∩ 𝐴)) Altre relazioni utili tra insiemi: Esempio: Dati laureati UK, statistiche descrittive Appunti Statistica 1 USI SP22 12 Statistica 1 – Probabilità, assiomi, regole di calcolo [4b] Probabilità, Definizione classica: Assumendo che tutti gli eventi elementari dello spazio campionario siano ugualmente possibili, la probabilità di un evento A è: 𝑃(𝐴) = ≠ 𝐸𝑠𝑖𝑡𝑖 𝐹𝑎𝑣𝑜𝑟𝑒𝑣𝑜𝑙𝑖 ≠ 𝐸𝑠𝑖𝑡𝑖 𝑃𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑖 • Definizione: Indichiamo come spazio campionario 𝑆 = {𝑂!, 𝑂!, . . . , 𝑂#}, dove 𝑂$ sono gli N eventi elementari. Definiamo l’evento 𝐴 = {𝑂!, . . . , 𝑂#!} come sottoinsieme di S, 𝑃(𝐴) = 𝑁/ 𝑁 • Esempio: Lancio del dado, 𝑆 = {1,2,3,4,5,6}, 𝐴 = {1,3,6}, quindi N=6, 𝑁/ = 3, 𝑷(𝑨) = 𝟑 𝟔 = 𝟏 𝟐 • Il concetto di risultati ugualmente possibili è problematico e ha portato alla nascita dell’approccio frequentitsta alla probabilità. Probabilità, Interpretazione frequentista: La probabilità di un evento è la sua frequenza relativa in un numero molto elevato di ripetizioni dell’esperimento aleatorio. • Definizione: La probabilità è il limite della proporzione di volte in cui l’evento A si verifica in un numero molto elevato di ripetizioni dell’esperimento aleatorio: 𝑷(𝑨) = 𝐥𝐢𝐦 𝒏→2 𝒏𝑨 𝒏 dove 𝒏𝑨 è il numero di volte in cui A si è verificato ed n è il num totale delle ripetizioni. • Esempio: Lancio del dado, spazio campionario 𝑆 = {1,2,3,4,5,6}, 𝑒𝑣𝑒𝑛𝑡𝑜 𝐴 = {1,3,6}: 𝑷(𝑨) = 𝐥𝐢𝐦 𝒏→2 𝒏𝑨 𝒏 = 1 2 𝑠𝑒 𝑖𝑙 𝑑𝑎𝑑𝑜 𝑛𝑜𝑛 è 𝑡𝑟𝑢𝑐𝑐𝑎𝑡𝑜 L’approccio è molto utile quando è possibile ripetere l’esperimento aleatorio molte volte. Meno utile quando l’esperimento si ripete poche volte o se non si può ripetere affatto. In ogni caso ripetere l’esperimento un numero infinito di volte, 𝑛 → ∞, è impossibile. Limitazioni che ha portato alla nascita dell’approccio soggettivo alla probabilità. Appunti Statistica 1 USI SP22 15 Statistica 1 – Probabilità condizionata e indipendenza [4c] Probabilità condizionata: Siamo spesso interessati alla probabilità di eventi condizionati. • Dato che il mercato azionario scende, qual è la probabilità che il mercato obbligazionario salirà? • Dato che il lancio del nuovo prodotto ha successo, qual è la probabilità di raddoppiare le vendite mensili? Studiamo probabilità condizionate perché il verificarsi di un evento può influenzare la probabilità del verificarsi di un altro evento. Esempio: 𝑃(𝑎𝑛𝑑𝑟ò 𝑎 𝑠𝑐𝑖𝑎𝑟𝑒|𝑜𝑔𝑔𝑖 𝑛𝑒𝑣𝑖𝑐𝑎) ≈ 1, 𝑃(𝑎𝑛𝑑𝑟ò 𝑎 𝑠𝑐𝑖𝑎𝑟𝑒|𝑜𝑔𝑔𝑖 𝑛𝑜𝑛 𝑛𝑒𝑣𝑖𝑐𝑎) ≈ 0 “|” si legge “dato che” ed è seguito dall’evento condizionante. L’evento condizionante può essersi già realizzato oppure no. Non ci interessa. Lo prendiamo come dato. La domanda che ci poniamo è: dato l’evento condizionante, qual è la probabilità dell’evento di interesse? Esempio: 𝑃(𝑎𝑛𝑑𝑟ò 𝑎 𝑠𝑐𝑖𝑎𝑟𝑒|𝑜𝑔𝑔𝑖 𝑛𝑒𝑣𝑖𝑐𝑎) ≈ 1, 𝑃(𝑎𝑛𝑑𝑟ò 𝑎 𝑠𝑐𝑖𝑎𝑟𝑒|𝑜𝑔𝑔𝑖 𝑛𝑜𝑛 𝑛𝑒𝑣𝑖𝑐𝑎) ≈ 0 Ricordiamo che 𝑃(𝐴 ∩ 𝐵) è la probabiità congiunta che si verifichi sia A che B. • Definizione: La probabilità condizionata dell’evento A, dato l’evento B, è 𝑃(𝐴|𝐵) = 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐵) 𝑑𝑜𝑣𝑒 𝑃(𝐵) > 0 Dal punto di vista frequentista, 𝑃(𝐴|𝐵) è la frazione di volte che si verifica A contando solo le osservazioni nelle quali si è verificato B. Conseguenza immediata della definizione della probabilità condizionata è la regola moltiplicativa delle probabilità: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴|𝐵)𝑃(𝐵) Visualizzare 𝑷(𝑨|𝑩): Due eventi, A e B. Esperimento ripetuto 5 volte genera 5 osservazioni. Un evento si verifica • oppure non si verifica ◦: 𝑃(𝐴) = 2 5 , 𝑃(𝐵) = 3 5 , 𝑃(𝐴 ∩ 𝐵) = 1 5 Considerando direttamente le realizzazioni di A e B: 𝑃(𝐴|𝐵) = 1 3 Oppure equivalentemente: 𝑃(𝐴|𝐵) = 𝑃(𝐴 ∩) 𝑃(𝐵) = 1 5 3 5 = 1 3 Appunti Statistica 1 USI SP22 16 Indipendenza: L’evento A è indipendente dall’evento B quando: 𝑃(𝐴|𝐵) = 𝑃(𝐴) Quindi il verificarsi dell’evento B non influenza la probabilità dell’evento A. Se A e B sono due eventi indipendenti, la probabilità che si verifichino entrambi è: In generale, se 𝐸!, 𝐸", . . . , 𝐸4 sono K eventi indipendenti: 𝑃(𝐸! ∩ 𝐸" ∩. . .∩ 𝐸4) = 𝑃(𝐸!)𝑃(𝐸"). . . 𝑃(𝐸4) Eventi indipendenti e eventi mutuamente esclusivi: Potremmo essere tentati di rappresentare due eventi indipendenti come eventi (insiemi) mutuamente esclusivi nei diagrammi di Venn. Questo è sbagliato. Se A e B sono eventi mutuamente esclusivi, 𝐴 ∩ 𝐵 = ⊘, quindi: 𝑃(𝐴 ∩ 𝐵) = 0 La probabilità che si verifichino entrambi è zero (evento impossibilie). Infatti, se si verifica un evento, B, sicuramente non si verifica l’altro, A. il verificarsi di un evento ha un impatto diretto sul verificarsi dell’altro, 𝑃(𝐴|𝐵) = 0. L’evento A non è indipendente dall’evento B, 𝑃(𝐴|𝐵) ≠ 𝑃(𝐴). Se A e B sono eventi indipendenti: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵) Che in generale è diverso da zero. Appunti Statistica 1 USI SP22 17 Statistica 1 – Teorema di Bayes, overinvolvement ratios [4d] Teorema di Bayes: È fondamentale nella teoria delle decisioni e in molti altri campi. In economia, finanza, management e medicina permette di aggiornare in modo razionale la probabilità di un evento sulla base di nuove informazioni. Sviluppato da Bayes nella metà del 700’. Esempio medico: • Obbiettivo: Stabilire se una persona è malata di HIV sulla base di un test di laboratorio. • Dati conosciuti: Il 10% della popolazione è malata. Il test può essere errato e identifica correttamente le condizioni della persona solo nel 90% dei casi. Se una persona è malata, con probabilità dello 0.90 il test lo indica, allo stesso modo anche se una persona non lo è. • Quando un medico ha di fronte una persona scelta a caso, prima di effettuare il test di laboratorio, il medico sa che quella persona ha una probabilità 0.10 di essere malata. Probabilità conosciuta come prior probability. Riassumiamo il processo dal punto di vista medico: Quando gli si presenta di fronte una persona a caso, prima di effettuare il test di laboratorio, il medico sa che quella persona ha una probabilità di 0.10 di essere malata. Questa probabilità è detta prior probability: 𝑃(𝐻5) = 0.10 Dopo aver osservato il risultato del test di laboratorio, il medico aggiorna la probabilità che la persona sia malata sulla base dell’esito dei test. Questa probabilità, dopo aver effettuato il test, è detta posterior probability: 𝑃(𝐻5|𝑇5) = 0.50, 𝑃(𝐻5|𝑇6) = 0.012 L’aggiornamento della prior probability avviene seguendo un processo logico-matematico rigoroso e permette di incorporare nuova informazione nel calcolo della probabilità. Appunti Statistica 1 USI SP22 20 Esempio, dado speciale: Considerando un dado speciale (truccato) con distribuzione di probabilità: Quindi, ad esempio, 𝑃(6) = 𝑃(𝑋 = 6) = 0.002, prima di lanciare il dado. Se il dado non fosse truccato, 𝑃(𝑋 = 𝑥) = ! 7 = 0.167 per ogni x. 𝑃(𝑋 = 1.5) =? 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3) + 𝑃(𝑋 = 4) + 𝑃(𝑋 = 5) + 𝑃(𝑋 = 6) =? Distribuzione di probabilità, due proprietà fondamentali: La distribuzione di probabilità, 𝑃(𝑋), di una variabile aleatoria discreta X deve soddisfare due proprietà caratterizzanti: 1. 0 ≤ 𝑃(𝑋) ≤ 1 𝑝𝑒𝑟 𝑜𝑔𝑛𝑖 𝑣𝑎𝑙𝑜𝑟𝑒 𝑥 2. La somma delle singole probabilità deve essere uguale a 1, L𝑃(𝑥) = 1 8 dove ∑𝑥 indica che la sommatoria si estende a tutte le possibili realizzazioni x di X. Altre rappresentazioni equivalenti di sommatoria: L𝑃(𝑥$) =L𝑃(𝑥$) & $%!$ Se una funzione 𝑃(𝑥) non soddisfa anche solo una di queste due proprietà, allora non è una distribuzione di probabilità. DOMANDA SU QUESTO ALL’ESAME Esempio, dado speciale: Nell’esempio del dado speciale, le due proprietà fondamentali 𝑃(𝑋) sono soddisfatte: 1. 0 ≤ 𝑃(𝑋) ≤ 1 per come abbiamo definito 𝑃(𝑥) 2. 1,2,3,4,5,6 sono gli eventi elementari, mutuamente esclusivi e collettivamente esaustivi (partizione dello spazio campionario). In altri termini, si realizza uno e uno solo degli eventi elementari. Sappiamo che se due eventi A e B sono mutuamente esclusivi /∩:%Ž, la probabilità che si verifichi o uno o l’altro è 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵). Quindi, 𝑃(1 ∪ 2 ∪ 3 ∪ 4 ∪ 5 ∪ 6) = 𝑃(1) + 𝑃(2) + 𝑃(3) + 𝑃(4) + 𝑃(5) + 𝑃(6) =L𝑃(𝑥) = 1 8 Appunti Statistica 1 USI SP22 21 Funzione di ripartizione: • Definizione: La funzione di ripartizione, 𝐹(𝑥'), di una variabile aleatoria X esprime la probabilità che la realizzazione di X non superi il valore 𝑥', 𝑭(𝒙𝟎) = 𝑷(𝑿 ≤ 𝒙𝟎) Dato che l’evento “𝑋 ≤ 𝑥'”, possiamo scriverlo come unione di tutti gli eventi elementari tali che “𝑋 ≤ 𝑥'”, abbiamo: 𝑭(𝒙𝟎) = 𝑷(𝑿 ≤ 𝒙𝟎) = L 𝑷(𝑿 = 𝒙) 𝒙=𝒙𝟎 • Esempio: Dado speciale con sei facce {1, 2, 3, 4, 5, 6} Le due proprietà fondamentali della distribuzione di probabilità inducono due proprietà caratterizzanti della funzione di ripartizione 𝐹(𝑋): 1. 0 ≤ 𝐹(𝑋) ≤ 1𝑝𝑒𝑟𝑜𝑔𝑛𝑖𝑣𝑎𝑙𝑜𝑟𝑒𝑥 2. Se 𝑥! e 𝑥" sono due valori tali che 𝑥! < 𝑥", allora 𝐹(𝑥!) ≤ 𝐹(𝑥") Ricordare una tipica forma di funzione di ripartizione aiuta a ricordare le due proprietà sopra. Limiti interessanti della funzione di ripartizione, utili per disegnare la funzione: lim 8→2 𝐹(𝑋) = 0, lim 8→2 𝐹(𝑋) = 1 Legame fondamentale tra probabilità e frequenze relative: Consideriamo il dado speciale con distribuzione di probabilità: Facciamo ora il seguente esperimento: • Lancio del dado speciale, n = 5 volte e calcoliamo le frequenze relative, • Lancio del dado speciale, n = 10 volte e calcoliamo le frequenze relative, • Lancio del dado speciale, n = 100 volte e calcoliamo le frequenze relative, • Lancio del dado speciale, n = 10.000 volte e calcoliamo le frequenze relative. Appunti Statistica 1 USI SP22 22 Probabilità e frequenze relative: Le probabilità delle possibili realizzazioni della variabile aleatoria influenzano i risultati degli esperimenti, una variabile aleatoria e le probabilità delle sue possibili realizzazioni descrivono l’esperimento aleatorio prima di osservare il risultato dell’esperimento. Una volta osservato non si ha più nulla di aleatorio. Dopo aver osservato i dati si calcolano le frequenze relative che riassumono l’informazione nei dati. Le frequenze relative dei risultati convergono alla probabilità dei risultati quando il numero di ripetizioni dell’esperimento aumenta. Fenomeno alla base dell’interpretazione frequentista della probabilità, manifestazione della Legge dei Grandi Numeri che vale per “qualsiasi” esperimento aleatorio, quando 𝑛 → ∞. Appunti Statistica 1 USI SP22 25 Esempio, typo nei libri di testo: Trasformazioni lineari di variabili aleatorie: Utili in economia, indichiamo con a e b due costanti. X è una variabile aleatoria (discreta), la variabile 𝑌 = 𝑎 + 𝑏𝑋 è una trasformazione lineare di X. 𝐸(𝑌) = 𝑎 + 𝑏𝐸(𝑋), 𝑉(𝑌) = 𝑏"𝑉(𝑋) Appunti Statistica 1 USI SP22 26 Statistica 1 – Variabili aleatorie discrete: distribuzione binomiale, Poisson [5c] Variabile aleatoria discreta binomiale: Distribuzione binomiale è ampiamente usata in campo economico. • Se una banca ha esteso n crediti, qual è la probabilità che x crediti siano ripagati? • Se n clienti entrano in negozio, qual è la probabilità che x clienti facciano acquisti? Natura del fenomeno descritto da una distribuzione binomiale: molti eventi indipendenti e ogni evento ha una probabilità fissa di successo. La variabile aleatoria binomiale si basa su quella di Bernoulli. Variabile aleatoria di Bernoulli: La variabile bernoulliana, X, è una variabile discreta che può assumere due soli valori: 1 che per convenzione chiamiamo “successo” e 0 che chiamiamo “insuccesso”. Indichiamo con p la probabilità di successo e (1 − 𝑝) la probabilità di insuccesso. 𝑥 = ~ 1, 𝑐𝑜𝑛 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡à 𝑝0, 𝑐𝑜𝑛 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡à 1 − 𝑝 Quindi la sua distribuzione è, semplicemente, 𝑃(1) = 𝑝 𝑒 𝑃(0) = 1 − 𝑝 Valore atteso 𝜇 e varianza 𝜎" di X. • Esempio, Rischio di credito: Distribuzione binomiale: Emerge quando un esperimento bernoulliano con due soli risultati possibili viene ripetuto più volte e le prove sono tra loro indipendenti, per riassumere, l’evento “x successi in n prove” può manifestarsi in 𝐶8& modi mutuamente esclusivi, ognuno con probabilità 𝑝8(1 − 𝑝)(&68). Possiamo ora introdurre formalmente la distribuzione binomiale. Indichiamo con 𝑋!, 𝑋", … , 𝑋& n variabili aleatorie bernoulliane indipendenti e identicamente distribuite, con 𝑃(𝑋_𝑖 = 1) = 𝑝. Queste n variabili aleatorie rappresentano n ripetizioni dell’esperimento casuale con esito successo/insuccesso. Appunti Statistica 1 USI SP22 27 La variabile aleatoria𝑋 = ∑ 𝑋$& $%! rappresenta il numero totale di successi in n prove, dato che ogni 𝑋$ assume valore 1 (successo) oppure 0 (insucceso). X ha una distribuzione binomiale: la probabilità di avere x successi in n prove è: Distribuzione binomiale: Valore atteso Dato che 𝑋~𝐵𝑖𝑛(𝑛, 𝑝) è una variabile discreta, potremmo calcolare il suo valore atteso applicando la definizione di valore atteso: 𝐸(𝑋) =L𝑥𝑃(𝑥) = L 𝑛 𝑥 Ž 𝑝8(1 − 𝑝)(&6.8) & 8%'8 Ed ottenere che 𝐸(𝑋) = 𝑛𝑝. Risultato poco intuitivo, un modo più diretto ed istruttivo di calcolare 𝐸(𝑋) è usare 𝑋 = 𝑋! +⋯+ 𝑋& infatti: 𝐸(𝑋) = 𝐸(𝑋! +⋯+ 𝑋&) = 𝐸(𝑋!) + ⋯+ 𝐸(𝑋&) = 𝑛𝑝 Dato che 𝐸(𝑋$) = 𝑝, 𝑖 = 1,… , 𝑛 • Esempio, Overbooking volo aereo: Alcuni giorni prima di un volo il responsabile vendite scopre che sono rimasti 16 posti, abbassa dunque il prezzo e vende 20 biglietti sapendo che solo l’80% di coloro che hanno comprato il biglietto voleranno. o Qual è la probabilità di overbooking? Qual è la probabilità che l’aereo partirà con un posto vuoto? 𝑋$ = 1 show 𝑜𝑝𝑝𝑢𝑟𝑒 𝑋$ = 0 no show, con 𝑝(𝑋$ = 1) = 0.80 Indichiamo con 𝑋 = ∑ 𝑋$"' $%! il numero di viaggiatori “show”: 𝑋~𝐵𝑖𝑛(𝑛, 𝑝), 𝑛 = 20 Show: 𝑃(𝑋 > 16) = 0.20 + 0.14 + 0.06 + 0.01 = 0.41 No show: 𝑃(𝑥 ≤ 15) = 1 − 𝑃(𝑋 ≥ 16) = 1 − (0.22 + 0.20 + 0.14 + 0.06 + 0.01) = 0.37 Appunti Statistica 1 USI SP22 30 Dipendenza tra due variabili aleatorie: Se due variabili X e Y non sono indipendenti, possono avere varie forme di dipendenza, relazione o co movimenti. La loro distribuzione di probabilità congiunta 𝑃(𝑥, 𝑦), descrive completamente tale dipendenza poiché determina le loro realizzazioni. Se abbiamo delle realizzazioni di X e Y, un modo efficace per visualizzare graficamente la loro dipendenza è produrre uno scatter plot. Covarianza: Misura di variabilità congiunta di due variabili aleatorie X e Y. È un numero e misura l’intensità dei co-movimenti o dipendenza lineare tra X e Y. • Esempio: Appunti Statistica 1 USI SP22 31 Coefficiente di correlazione lineare: Numero pure o adimensionale che permette di misurare l’eventuale dipendenza lineare tra X e Y, ρ, si ottiene semplicemente standardizzando la covarianza per le due deviazioni standard: ρ = 𝐶𝑜𝑟𝑟(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑋, 𝑌) 𝜎8𝜎@ Dove 𝜎8 = ]𝑉(𝑋) 𝑒 𝜎@ = ]𝑉(𝑌). Interpretazione del coefficiente di correlazione lineare: Scatter plots, dipendenza non lineare: Varianza della somma di due variabili aleatorie: Appunti Statistica 1 USI SP22 32 Statistica 1 – Variabili aleatorie continue: introduzione [6a] Variabili aleatorie continue: Come decidere se una variabile numerica è discreta o continua? ‘Criterio economico’: Ai fini dello studio del fenomeno di interesse, è importante distinguere ogni singolo valore che la variabile può assumere? • Sì, variabile discreta (numero di clienti, chiamate al call center). • No, variabile continua (rendimento azionario, tempo di attesa). Alcune variabili numeriche sono ‘intrinsecamene continue’, altre sarebbero ‘discrete’ ma vengono trattate come continue, per semplicità e in base al ‘criterio economico’. Due osservazioni: 1. Molte variabili vengono trattate come continue. 2. Nella classe delle distribuzioni vi è la normale/Gaussiana che trova applicazione praticamente in qualsiasi campo, è legata al Teorema del Limite Centrale. Molte caratteristiche delle variabili discrete esistono anche per le continue ed hanno esattamente lo stesso significato, la caratteristica fondamentale della variabile aleatoria continua, X, è che può assumere un valore qualsiasi in un intervallo dei numeri reali. Le sue possibili realizzazioni sono infinite. Diversamente da variabili discrete, un continua X: 𝑃(𝑋 = 𝑥) = 0, 𝑥 = 𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑒 𝑟𝑒𝑎𝑙𝑖𝑧𝑧𝑎𝑧𝑖𝑜𝑛𝑒 𝑑𝑖 𝑋 Per le continue possiamo calcolare la probabilità che X assuma un valore in un intervallo (𝑎, 𝑏) dei numeri reali: 𝑃(𝑎 < 𝑋 < 𝑏) > 0 Funzione di ripartizione: Stesso identico concetto delle variabili aleatorie discrete, indichiamo con X la continua. La sua funzione di ripartizione: 𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥) Come ogni funzione di ripartizione anche quella di una variabile continua soddisfa due proprietà fondamentali: 1. 0 ≤ 𝐹(𝑥) ≤ 1 𝑝𝑒𝑟 𝑜𝑔𝑛𝑖 𝑣𝑎𝑙𝑜𝑟𝑒 𝑥 2. Se 𝑥! e 𝑥" sono due valori tali che 𝑥! < 𝑥" allora 𝐹( 𝑥!) ≤ 𝐹( 𝑥") Due limiti utili per disegnare 𝐹(𝑋): lim 8→62 𝐹(𝑥) = 0, lim 8→2 𝐹(𝑋) = 1 Appunti Statistica 1 USI SP22 35 Statistica 1 – Variabili aleatorie continue: distribuzione normale [6b] Distribuzione normale: Distribuzione continua più usata in innumerevoli contesti e applicazioni teoriche o pratiche, approssima molto bene distribuzioni di fenomeni che consistono in un numero elevato di variabili aleatorie. È facile da usare, il calcolo delle probabilità è immediato. In economia è usata per descrivere rendimenti di titoli rischiosi, vendite totali o produzione complessiva di un’azienda, un’industria o un settore, variazioni annuali di PIL, conusmo, occupazione, ecc… La funzione di densità di una variabile aleatoria normale X è: 𝑓(𝑥) = 1 √2𝜋𝜎" 𝑒6 ! "( 86D E )# Dove 𝜇 ∈ (−∞,∞) e 𝜎" ∈ 0,∞) sono parametri e 𝑥 ∈ (−∞,∞). Valore atteso e varianza sono: 𝐸(𝑋) = © 𝑥𝑓(𝑥)𝑑𝑥 = 𝜇 2 62 , 𝑉(𝑋) = © (𝑥 − 𝜇)"𝑓(𝑥)𝑑𝑥 = 𝜎" 2 62 La normale è caratterizzata da due parametri: 𝜇 𝑒 𝜎" Distribuzioni normali, valore atteso e varianza: Variando 𝜇 𝑒 𝜎", otteniamo un’intera famiglia di distribuzioni normali. Dato 𝜎", aumentare 𝜇 significa traslare rigidamente la distribuzione normale a destra. Viceversa al diminuire di 𝜇. Ricordiamo che 𝜇 è il baricentro della distribuzione. Dato 𝜇, aumentare 𝜎" significa aumentare la dispersione o variabilità delle possibili realizzazioni di X, ‘la pancia della distribuzione’. Viceversa al diminuire di 𝜎". Quando 𝜇 = 0 e 𝜎" = 1, abbiamo una distribuzione normale standard, 𝑍~𝒩(0,1): 𝑓(𝑧) = 1 √2𝜋 𝑒6 ! "F # Appunti Statistica 1 USI SP22 36 Trasformazione lineare di una V.A normale è ancora normale: Una proprietà fondamentale della distribuzione normale è la seguente: se 𝑋~𝒩(𝜇, 𝜎") è una variabile aleatoria normale, allora una trasformazione lineare di X, 𝑌 = 𝑎 + 𝑏𝑋 con a e b costanti, è ancora una variabile aleatoria normale. 𝑌 = 𝑎 + 𝑏𝑋~𝒩(𝑎 + 𝑏𝜇, 𝑏"𝜎") Caso particolare, molto utile: la trasformazione lineare che standardizza X 𝑍 = 𝑋 − 𝜇 𝜎 ~𝒩(0,1) Quindi, per calcolare probabilità relative ad una V.A normale, basta conoscere probabilità associate alla normale, dato che ogni V.A può essere standardizzata. In generale se X ha una data distribuzione, una sua trasformazione lineare, 𝑌 = 𝑎 + 𝑏𝑋, ha una distribuzione diversa da X. Funzione di ripartizione: Indichiamo con 𝑋~𝒩(𝜇, 𝜎"). La sua funzione di ripartizione è: Questo integrale non ha forma chiusa, fortunatamente grazie alla standardizzazione di X possiamo ridurre il calcolo di 𝐹(𝑥G) ad u n solo integrale per qualsiasi valore di 𝑥G, 𝜇 e 𝜎". Appunti Statistica 1 USI SP22 37 Calcolo di probabilità con distribuzione normale: L’area sotto la curva di densità è uguale a uno, 𝑃(𝑍 < 𝑏) + 𝑃(𝑍 > 𝑏) = 1, quindi: 𝑃(𝑍 < 𝑏) = 1 − 𝑃(𝑍 > 𝑏) essendo {𝑍 < 𝑏} 𝑒 {𝑍 > 𝑏} due eventi complementari e mutuamente esclusivi, ovvero una partizione dello spazio campionario. La distribuzione normale è simmetrica rispetto al suo valore atteso = zero per la normale standard. Indichiamo con -a un valore negativo (es., -a=-1) 𝑃(𝑍 < −𝑎) = 𝑃(𝑍 > 𝑎) ⟷ 𝐹(−𝑎) = 1 − 𝐹(𝑎) Similmente, indichiamo con b un valore positivo (es., b=1) 𝑃(𝑍 < 𝑏) = 𝑃(𝑍 > −𝑏) ⟷ 𝐹(𝑏) = 1 − 𝐹(−𝑏) Esempio, punteggio di un test e soglia di ammissione: Appunti Statistica 1 USI SP22 40 Esempio, Rendimento di un portafoglio, correlazione e volatilità: Esempio, minimizzare la varianza di un portafoglio: Appunti Statistica 1 USI SP22 41 Esempio, volatilità del rendimento e scelta di portafoglio: Altre distribuzioni continue: Le distribuzioni continue sono utilizzate per descrivere molti fenomeni, esistono quindi diversi tipi, vediamo ora quella esponenziale. Distribuzione esponenziale: Valore atteso e varianza Valore atteso e varianza di una variabile aleatoria esponenziale T sono Quindi all’aumentare di λ, il valore atteso E(T) diminuisce (e viceversa) E(T) e V(T) aumentano o diminuiscono contemporaneamente al variare di λ. Una limitazione della distribuzione esponenziale `e il non poter modellare E(T) e V(T) separatamente (come ad esempio nella distribuzione normale). Se T misura un tempo di attesa, occorre specificare l’unità di misura del tempo (es., minuti, giorni, ecc.). Qual è l’unità di misura di λ? Relazione tra distribuzione esponenziale e di Poisson La distribuzione di Poisson descrive il numero di eventi per unità di tempo. Se X ∼ Po(λ), allora E(X) = λ. La distribuzione esponenziale descrive il tempo di attesa fino al prossimo evento. Se T ∼ Exp(λ), allora E(T) = 1/λ. Ad esempio, dire che si verificano ‘in media 2 eventi al giorno’ oppure dire che si verifica ‘in media, ogni mezza giornata, un evento’ `e equivalente Quindi λ, il solo parametro che controlla entrambe le distribuzioni, è tale che ! = E(X ) = 1 E(T ) Appunti Statistica 1 USI SP22 42 Esempio: tempo di attesa allo sportello della biblioteca Il tempo di attesa medio allo sportello informazioni della biblioteca è di 5 minuti. Qual è la probabilità di attendere in coda più di 5 minuti? Indichiamo con T il tempo di attesa che modelliamo come una V.A. esponenziale 5 min = E(T) = ! H Quindi λ = 1/5 = 0.2 e la densità esponenziale è f (t) = 0.2 e−0.2 t quando t ≥ 0. La probabilità di essere in coda per più di 5 min (data in due modi equivalenti) è Appunti Statistica 1 USI SP22 45 Distribuzione log-normale nel modello di Black-Scholes Indichiamo con s0 il prezzo di un’azione Apple oggi (quindi s0 è noto, una costante). Indichiamo con S il prezzo dell’azione tra un anno (ovviamente non noto, una V.A.). Il modello di Black–Scholes assume che dove Z ∼ N (0, 1). Quindi S segue una distribuzione log-normale. Il modello di Black–Scholes `e utilizzato per il ‘pricing’ (e ‘hedging’) di derivati scritti su S. Appunti Statistica 1 USI SP22 46 Statistica 1 – Legge dei Grandi Numeri [7a] Quadro generale: La Legge dei Grandi Numeri e Teorema del Limite Centrale forniscono il quadro teorico per produrre inferenza, sono due risultati fondamentali della Statistica. Esistono varie versioni. Motivazione della LGN: La Legge dei Grandi Numeri ci assicura che: • La media campionaria dà una stima E(X) tanto più accurata quanto più grande è il campione di dati raccolti, a prescindere dalla distribuzione di X. • La media campionaria converge al valore atteso quando la numerosità campionaria aumenta. • La media campionaria è uno stimatore valido del valore atteso. Setup e notazione: 𝑋~ℬ(1, 𝑝) è una variabile aleatoria Bernoulliana con parametro p sconosciuto. X può assumere solo due valori, 0 e 1. Immaginiamo che X rappresenti l’esito del gioco testa/croce nel lancio di una moneta: successo/insuccesso, 1 o 0 rispettivamente. 𝑋 = ~1, 𝑝 0, 1 − 𝑝 X è una variabile aleatoria discreta: 𝑃(𝑋 = 1) = 𝑝 e 𝑃(𝑋 = 0) = 1 − 𝑝. Valore atteso 𝜇 = 𝐸(𝑋) = 𝑝 e varianza sono 𝜎" = 𝑉(𝑋) = 𝑝(1 − 𝑝). Sequenza di variabili aleatorie e media campionaria: Indichiamo con 𝑋!, … , 𝑋& una sequenza della V.A. X ovvero n variabili aleatorie che rappresentano n future realizzazioni indipendenti della stessa variabile aleatoria X. 𝑋!, … , 𝑋& sono n variabili aleatorie indipendenti e identicamente distribuite (i.i.d). Prima di osservare il campione, 𝑋!, … , 𝑋&, sono variabili aleatorie. La media campionaria è una variabile aleatoria: Dopo aver osservato il campione, otteniamo n realizzazioni della V.A. X, ovvero 𝑥!, … , 𝑥& sono due numeri costanti. Anche ?̅?& è un numero costante. Appunti Statistica 1 USI SP22 47 Media campionaria, valore atteso e varianza: Media campionaria, valore atteso e varianza n -> infinito: Legge dei Grandi Numeri: • Teorema: Data una variabile aleatoria X con valore atteso 𝜇 = 𝐸(𝑋) e varianza 𝜎" = 𝑉(𝑋) e date n realizzazioni indipendenti 𝑋!, … , 𝑋& di X, la media campionaria 𝑋‰& converge al suo valore atteso 𝐸(𝑋‰&) = 𝜇 quando 𝑛 → ∞ Nel senso che la probabilità che 𝑋‰& si discosti da 𝜇 di un 𝜀 > 0 tende a zero quando 𝑛 → ∞ per ogni 𝜀 > 0 piccolo quanto si vuole, questa è la Legge (Debole) dei Grandi Numeri. Appunti Statistica 1 USI SP22 50 Statistica 1 – Teorema del Limite Centrale [7b] Introduzione: LGN e Teorema del limite centrale sono due risultati fondamentali in statistica. Teorema del Limite Centrale (TLC): • Teorema: Data una variabile aleatoria X con valore atteso 𝜇 = 𝐸(𝑋) e varianza 𝜎" = 𝑉(𝑋) e date n future realizzazioni indipendenti 𝑋!, … , 𝑋& di X, la distribuzione della media campionaria 𝑋‰& standardizzata converge alla distribuzione normale standard quando 𝑛 → ∞ La media campionaria standardizzata converge in distribuzione alla normale standard: L’aspetto strabiliante del TLC è che vale per qualsiasi distribuzione V.A. X. Anche se X segue una distribuzione sconosciuta, quando il campione è numeroso, la distribuzione della media campionaria si avvicina alla normale. Intervallo di accettazione: Conseguenza immediata del TLC è poter calcolare l’intervallo di accettazione per la media campionaria. Grazie al TLC la media campionaria segue una distribuzione normale standard quando 𝑛 → ∞. Per n fisso, si usa l’approssimazione IJ$6D E/√& ~𝒩(0,1) Appunti Statistica 1 USI SP22 51 Applicazione del TLC, controllo qualità: Il direttore di una fabbrica di cereali vuole verificare che il contenuto delle scatole sia effettivamente di 500g, la distribuzione del peso dei cereali per scatola è sconosciuta, come verificare se il processo produttivo è sotto controllo? Per due giorni ogni ora l’addetto al controllo qualità estrae a caso n = 30 scatole di cereali dalla catena di produzione, pesa il contenuto e calcola la media dei pesi. Indichiamo con X la distribuzione del peso dei cereali per scatola, 𝑋~(𝜇, 𝜎"). Il direttore della fabbrica vuole verificare che 𝜇 = 500𝑔. Supponiamo di sapere che 𝜎 = 10𝑔 e fissiamo 𝛼 = 0.01. Grazie all’approssimazione basata sul TLC: Appunti Statistica 1 USI SP22 52 Statistica 1 – Applicazione del Teorema del Limite Centrale e campionamento [7c] Teorema del Limite Centrale (TLC): Permette di approssimare la distribuzione della media campionaria pur non conoscendone la distribuzione, il TLC è un risultato limite, la media campionaria standardizzata converge ad una normale standard quando la numerosità campionaria 𝑛 → ∞. Nelle applicazioni reali il campione è finito, 𝑛 < ∞, il TLC permette dunque di approssimare la distribuzione della media campionaria. Il grado di approssimazione dipende dalla distribuzione della variabile aleatoria di interesse. Teorema del Limite Centrale e variabili aleatorie normali: Indichiamo con 𝑋~(𝜇, 𝜎") la variabile aleatoria che descrive un fenomeno di interesse. 𝑋!, … , 𝑋& sono n future osservazioni indipendenti di X. In generale pur assumendo di conoscere la distribuzione di X, non sappiamo come si distribuisce la media campionaria standardizzata. 𝑋‰& − 𝜇 𝜎/√𝑛 𝒟 → ? Il TLC assicura che IJ$6D E/√& 𝒟 → 𝒩(0,1) quando 𝑛 → ∞ Intervallo intorno alla media campionaria: Abbiamo già costruito un intervallo intorno alla media campionaria basato sulla LGN. 𝑋~(𝜇, 𝜎") segue una distribuzione sconosciuta. Assumiamo che la varianza sia nota e pari a 3. Quanto deve essere grande la numerosità campionaria n affinché la futura realizzazione di 𝑋‰& si discosti da 𝜇 meno di 0.5, con probabilità maggiore al 99%? Abbiamo già calcolato che quando n > 1200 (distribuzione X sconosciuta): 𝑃(|𝑋‰& − 𝜇| < 𝜀) > 𝛽, dove 𝜀 = 0.5, 𝛽 = 0.99 Assumiamo ora che 𝑋‰&~𝒩 𝜇, E # & Ž. Questo può essere giustificato da (i) 𝑋~𝒩(𝜇, 𝜎") oppure (ii) n è grande e il TLC dà una buona approssimazione sulla distribuzione di 𝑋‰&: 𝑃(|𝑋‰& − 𝜇| < 𝜀) = 𝑃(−𝜀 < (𝑋‰& − 𝜇) < 𝜀) = 𝑃 ¹− 𝜀 𝜎/√𝑛 < 𝑍 < 𝜀 𝜎/√𝑛 º > 𝛽 Appunti Statistica 1 USI SP22 55 Campionamento da una popolazione, estrazione senza re immissione: Estraiamo a caso un individuo e non lo reinseriamo nella popolazione. Vantaggio: più efficace nell’esplorare la popolazione. Svantaggio: le osservazioni generate non sono indipendenti. Se la popolazione è grande, campionare con o senza re immissione è uguale, in questo corso consideriamo campioni casuali, dove le osservazioni sono i.i.d. Statistica: Una statistica è una funzione dei dati campionari, va dal campione ai numeri reali. Prima di osservare il campione è una variabile aleatoria. Dopo aver osservato il campione è un numero costante. Riflette le caratteristiche della popolazione e ci permette di fare inferenza, di risalire dal campione alla popolazione e stimare i parametri della popolazione. Distribuzione campionaria: Prima di osservare il campione la statistica è una V.A. e ha una sua distribuzione. La distribuzione campionaria della statistica è indotta dalla distribuzione delle variabili aleatorie nel campione 𝑋!, . . . , 𝑋&. • Esempio: Media campionaria, 𝑋‰& di 𝑋!, . . . , 𝑋& i.i.d con 𝑋~𝒩(𝜇, 𝜎"): 𝑋‰& = 1 𝑛 (𝑋! +⋯+ 𝑋&)~𝒩(𝜇, 𝜎"/𝑛) Varianza campionaria: Statistica che viene utilizzata per stimare la varianza della popolazione, 𝜎" = 𝑉(𝑋) Indichiamo con 𝑋~(𝜇, 𝜎") e 𝑋!, . . . , 𝑋& un campione casuale di X. La varianza campionaria, 𝑆&" è definita come: 𝑆&" = 1 𝑛 − 1 L(𝑋$ − 𝑋‰&)" & $%! La deviazione standard campionaria è ]𝑆&", prima di osservare il campione in quanto statistica, la varianza è una V.A. con una sua distribuzione/valore atteso/varianza/etc… Valore attesto della varianza campionaria: Dimostriamo ora che 𝐸(𝑆&") = 𝜎", quindi 𝑆&" è un ‘buon stimatore’ di 𝜎". Osserviamo che se il denominatore di 𝑆&" non fosse stato (𝑛 − 1), 𝐸(𝑆&") ≠ 𝜎" Appunti Statistica 1 USI SP22 56 Distribuzione della varianza campionaria: Per determinarla assumiamo 𝑋~𝒩(𝜇, 𝜎"), introduciamo una nuova distribuzione. La distribuzione 𝒳&" chi-quadro con n gradi di libertà. Indichiamo con 𝑍!, . . . , 𝑍& n V.A. normali standard i.i.d., allora:
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved