Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Teoria di Metodi statistici, Dispense di Metodi Statistici Per L'impresa

Ho creato questo documento sulla teoria del corso di metodi statistici del prof Andrea Ghiglietti.

Tipologia: Dispense

2022/2023

In vendita dal 11/04/2024

alessia_1408
alessia_1408 🇮🇹

4.3

(10)

17 documenti

Anteprima parziale del testo

Scarica Teoria di Metodi statistici e più Dispense in PDF di Metodi Statistici Per L'impresa solo su Docsity! 1 DOMANDE DI TEORIA di METODI STATISTICI 1. Calcolo della probabilità (significato ed esempi) .......................................................................... 2 2. Algebra degli insiemi ed algebra degli eventi ................................................................................ 2 3. Leggi di De Morgan..................................................................................................................... 2 4. Definizione di modello probabilistico .......................................................................................... 3 5. Funzione di probabilità, assiomi e conseguenze........................................................................... 3 6. Modalità di estrazione: regola del prodotto cartesiano e calcolo combinatorio ............................... 3 7. Probabilità condizionata ............................................................................................................ 4 8. Indipendenza tra eventi .............................................................................................................. 4 9. Definizione di partizione di  ..................................................................................................... 4 10. Formula della probabilità totale e formula di Bayes .................................................................... 4 11. Definizione di variabile casuale e le sue caratteristiche .............................................................. 5 12. Funzione di ripartizione e le sue proprietà .................................................................................. 5 13. Variabile casuale discreta e continua ........................................................................................ 5 14. I momenti di ordine r ................................................................................................................ 5 15. Proprietà del valore atteso e la varianza ..................................................................................... 6 16. Quantili ................................................................................................................................... 6 17. Funzione generatrice dei momenti della v.c. e le sue proprietà .................................................... 6 18. Variabili casuali bidimensionali (o bivariate) .............................................................................. 6 19. Indipendenza tra due v.c. .......................................................................................................... 6 20. Valori medi (momenti) di funzioni di v.c. bivariate ....................................................................... 6 21. V.c. notevoli univariate discrete ................................................................................................. 6 V.c. indicatore o Bernoulliana 𝐼~𝐼𝑛𝑑(𝑝) ....................................................................................... 6 V.c. binomiale 𝑋~𝐵𝑖𝑛(𝑛; 𝑝) ......................................................................................................... 7 V.c. trinomiale (𝑋1, 𝑋2)~𝑇𝑟𝑖𝑛(𝑛, 𝑝1, 𝑝2) ...................................................................................... 7 V.c. geometrica (o di Pascal) 𝑌~𝐺𝑒𝑜𝑚(𝑝) .................................................................................... 8 V.c. binomiale negativa 𝑌~𝐵𝑖𝑛𝑁𝑒𝑔(𝑟; 𝑝) ...................................................................................... 8 V.c. ipergeometrica 𝑋~𝐼𝑝𝑒𝑟(𝑁; 𝑟; 𝑛) ............................................................................................ 8 V.c. di Poisson 𝑋~𝑃𝑜𝑖𝑠𝑠𝑜𝑛() ..................................................................................................... 8 22. Differenza tra ipergeometrica e binomiale ................................................................................. 9 23. V.c. notevoli univariate continue ................................................................................................ 9 V.c. rettangolare continua (o uniforme) 𝑋~𝑈𝑛𝑖𝑓𝑎, 𝑏 𝑐𝑜𝑛 𝑎 < 𝑏.................................................... 9 V.c. di Pareto 𝑋~𝑃𝑎𝑟𝑒𝑡𝑜(𝑥0; 𝜃) ................................................................................................... 9 V.c. esponenziale 𝑋~𝐸𝑠𝑝(𝜃) ..................................................................................................... 10 V.c. normale (o di Gauss) 𝑋~𝑁(𝜇, 𝜎2) ........................................................................................ 10 2 V.c. lognormale 𝑋~𝑙𝑜𝑔𝑁(𝛾, 𝛿) .................................................................................................. 11 V.c. lambda (cenni) .................................................................................................................. 11 24. Legame tra Poisson ed esponenziale ....................................................................................... 11 25. Legame tra esponenziale e Gamma ........................................................................................ 12 26. Significato di fare inferenza ..................................................................................................... 12 27. Teorema e dimostrazione del limite centrale ............................................................................ 12 28. Disuguaglianza di Chebychev ................................................................................................. 12 29. Legge debole dei grandi numeri............................................................................................... 12 30. Proprietà degli stimatori ......................................................................................................... 13 31. Proprietà della media campionaria ......................................................................................... 13 32. Proprietà della stima puntuale di una proporzione .................................................................... 15 33. Stima puntuale di una varianza ............................................................................................... 15 34. Stima intervallare di 𝜃 e intervallo di confidenza ....................................................................... 16 1. Calcolo della probabilità (significato ed esempi) L’obiettivo è creare una funzione che assegni ad ogni evento A (input) un numero che quantifichi quanto sia verosimile il verificarsi di A. Tale numero è detto probabilità di A ed è un numero non negativo. Dopo che A è avvenuto, la probabilità può essere 0 o 1 (se è vero o falso), ma l’elaborazione della funzione avviene prima dell’evento. 2. Algebra degli insiemi ed algebra degli eventi L’algebra degli eventi deriva dall’algebra degli insiemi, in quanto ogni evento può essere immaginato come un punto all’interno dell’insieme . • Insieme complementare: dato un insieme A, il suo complementare ?̅? contiene tutti i punti non appartenenti ad A. • Insieme intersezione: considerati due insiemi A e B si dice intersezione 𝐴 ∩ 𝐵, l’insieme dei punti appartenenti ad entrambi gli insiemi. o A e B non si toccano  𝐴 ∩ 𝐵 = ∅ o A è contenuto in B  𝐴 ∩ 𝐵 = 𝐴 o B è contenuto in A  𝐴 ∩ 𝐵 = 𝐵 • Insiemi disgiunti: due insiemi A e B sono disgiunti se non hanno punti in comune, sono cioè incompatibili 𝐴 ∩ 𝐵 = ∅ • Insieme unione: dati due insiemi A e B si definisce unione 𝐴 ∪ 𝐵 l’insieme dei punti che appartengono solo ad A, solo a B o ad entrambi. • Insieme differenza: dati due insiemi A e B si definisce differenza A\B l’insieme dei punti di A che non appartiene a B. 3. Leggi di De Morgan Le leggi di De Morgan studiano le regole per cui un’unione diventa un’intersezione e viceversa. 5 11. Definizione di variabile casuale e le sue caratteristiche Per un certo modello probabilistico, una variabile casuale x è una funzione con dominio  e codominio R. La somma di tutte le probabilità è pari ad 1, perché gli eventi sono tutti elementi appartenenti alla partizione  e rappresentano una sua partizione. 12. Funzione di ripartizione e le sue proprietà La funzione di ripartizione o funzione cumulata di probabilità di una variabile casuale X, 𝐹𝑥(. ) è quella funzione con dominio in R e codominio nell’intervallo [0,1]. Questa funzione è tale che: 𝐹𝑥(𝑥) = 𝑃(𝑋 ≤ 𝑥) = 𝑝(𝑒𝑖: 𝑥(𝑒𝑖) ≤ 𝑥) Proprietà della funzione di ripartizione: • è una funzione monotona non decrescente • lim 𝑥→−∞ 𝐹𝑥(𝑥) = 0 • lim 𝑥→+∞ 𝐹𝑥(𝑥) = 1 • è una funzione continua da destra lim ℎ→0+ 𝐹𝑥(𝑥 + ℎ) = 𝐹𝑥(𝑥) 13. Variabile casuale discreta e continua Si dice che la variabile casuale X è discreta se può assumere un numero finito di valori o un’infinità numerabile di valori. Funzione di probabilità 𝑝(𝑥) = { 𝑃(𝑋 = 𝑥𝑖) = 𝑃(𝑥𝑖) 𝑠𝑒 𝑥 = 𝑥𝑖 0 𝑎𝑙𝑡𝑟𝑜𝑣𝑒 se 1) 𝑃(𝑋𝑖) > 0 2) ∑ 𝑃(𝑥𝑖) = 1𝑛 𝑖=1 Si dice che la variabile casuale X è continua se esiste una funzione 𝑓(𝑥) tale che vale: 𝐹𝑥(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡 𝑥 −∞ Funzione di probabilità (densità) se 1) 𝑓(𝑥) > 0 2) ∫ 𝑓(𝑥)𝑑𝑥 = 1 +∞ −∞ 14. I momenti di ordine r Alcuni casi particolare di valori medi sono i momenti di ordine r: 𝑔(𝑋) = 𝑥𝑟 momenti ordinari 𝑔(𝑋) = (𝑥 − 𝜇)𝑟 dove 𝜇 = 𝐸[𝑔(𝑋)] momenti centrati, in quanto si sottrae al valore della variabile casuale la sua media (si centra la funzione in 0). 6 15. Proprietà del valore atteso e la varianza Proprietà del valore atteso 𝐸[𝑋] = 𝜇 • Linearità: date due variabili casuali X e Y, con a e b costanti. Se 𝑌 = 𝑎 + 𝑏𝑋 allora 𝐸[𝑌] = 𝑎 + 𝑏𝐸[𝑋] • Date due variabili casuali X e Y, 𝐸[𝑋 + 𝑌] = 𝐸[𝑋] + 𝐸[𝑌] Proprietà della varianza • Procedura indiretta per il calcolo della varianza 𝜎2 = 𝑉𝑎𝑟(𝑋) = 𝐸[𝑋2] − (𝐸[𝑋])2 = 𝐸[𝑋2] − 𝜇2 • Trasformazione lineare: date X e Y due variabili casuali con a e b costanti, se 𝑌 = 𝑎 + 𝑏𝑋 allora 𝑉𝑎𝑟[𝑌] = 𝑏2𝑉𝑎𝑟[𝑋] 16. Quantili Il quantile di ordine p, 𝑥𝑝 è il valore di X tale che 𝐹𝑥(𝑥𝑝) = 𝑃(𝑋 ≤ 𝑥𝑝) = 𝑝 17. Funzione generatrice dei momenti della v.c. e le sue proprietà La funzione generatrice dei momenti 𝑓. 𝑔. 𝑚. = 𝑚𝑥(𝑡) è definita come la media di 𝑔(𝑥), dove 𝑔(𝑥) = 𝑒𝑡𝑥 e quindi 𝑚𝑥(𝑡) = 𝐸[𝑔(𝑋)] = 𝐸[𝑒𝑡𝑥] 18. Variabili casuali bidimensionali (o bivariate) Si definisce variabile casuale bidimensionale una funzione (X, Y) che associa ad ogni evento elementare di  una coppia di valori reali, ossia (𝑋, 𝑌):  𝑅2 19. Indipendenza tra due v.c. Due variabili casuali si dicono indipendenti in probabilità se si può risalire alle probabilità congiunte a partire da quelli marginali 𝑃(𝑥𝑗 , 𝑦𝑖) = 𝑃 ((𝑋 = 𝑥𝑗) ∩ (𝑌 = 𝑦𝑖)) = 𝑃(𝑥𝑗) ∗ 𝑃(𝑦𝑖) 20. Valori medi (momenti) di funzioni di v.c. bivariate Il valore medio di 𝑔(𝑋, 𝑌) nel caso di una v.c. discreta è 𝐸[𝑔(𝑋, 𝑌)] = ∑ ∑ 𝑔(𝑥𝑗 , 𝑦𝑖) ∗ 𝑝(𝑥𝑗 , 𝑦𝑖)𝑗𝑖 . Nei casi particolari di 𝑔(𝑋), cioè i momenti: 𝑔(𝑋, 𝑌) = (𝑋 − 𝜇2)(𝑌 − 𝜇2). Nel momento misto 𝑔(𝑋, 𝑌) = 𝑋𝑌 21. V.c. notevoli univariate discrete V.c. indicatore o Bernoulliana 𝐼~𝐼𝑛𝑑(𝑝) La variabile assume, in seguito ad un esperimento casuale, due valori: 0 (insuccesso) e 1 (successo). • 𝑝(𝑖𝑛𝑠𝑢𝑐𝑐𝑒𝑠𝑠𝑜) = 𝑝(0) = 1 − 𝑝 • 𝑝(𝑠𝑢𝑐𝑐𝑒𝑠𝑠𝑜) = 𝑝(1) = 𝑝 Caratteristiche: • Media 𝐸[𝐼] = 𝑝 7 • Varianza 𝑉𝑎𝑟(𝐼) = 𝑝(1 − 𝑝) • Funzione generatrice dei momenti 𝑚𝐼(𝑡) = 𝐸[𝑒𝑡𝑙] = (1 − 𝑝) + 𝑒𝑡𝑝 𝑚𝐼(0) = 1 V.c. binomiale 𝑋~𝐵𝑖𝑛(𝑛; 𝑝) Si ripete un esperimento casuale per n volte sotto le stesse condizioni, quindi il parametro p rimane lo stesso e le prove sono tra loro indipendenti, cioè non modificano i parametri delle successive. La v.c. binomiale serve per contare su n prove, il numero di successi. 𝑃(𝑋 = 𝑥) = (𝑛 𝑥 ) 𝑝𝑥(1 − 𝑝)𝑛−𝑥 Caratteristiche: • Media 𝐸[𝑋] = 𝑛𝑝 • Varianza 𝑉𝑎𝑟(𝑋) = 𝑛𝑝(1 − 𝑝) • Funzione generatrici dei momenti 𝑚𝑥(𝑡) = (1 − 𝑝 + 𝑝𝑒𝑡)𝑛 V.c. trinomiale (𝑋1, 𝑋2)~𝑇𝑟𝑖𝑛(𝑛, 𝑝1, 𝑝2) La variabile trinomiale prevede 3 possibili esiti. L’esperimento casuale prevede la ripetizione n volte di una stessa prova sotto le stesse condizioni. Vi sono n prove indipendenti e 𝑝1, 𝑝2, 𝑝3 restano costanti in tutte le prove. 𝑝(𝑋1 = 𝑛1 ∩ 𝑋2 = 𝑛2) = ( 𝑛! 𝑛1!𝑛2!𝑛3! ) ∗ 𝑝1 𝑛1 ∗ 𝑝2 𝑛2 ∗ (1 − 𝑝1 − 𝑝2)𝑛3 Caratteristiche: • Probabilità condizionate 𝑝(𝑋2 = 𝑏3|𝑋1 = 𝑎1) = 𝑝(𝑋2=𝑏3∩𝑋1=𝑎1) 𝑝(𝑋1=𝑎1) Dimostrazione: • Le variabili casuali condizionate di una variabile trinomiale sono variabili casuali univariate binomiali 𝑝(𝑋1|𝑋2 = 𝑛2)~𝐵𝑖𝑛 (𝑛 − 𝑛2; 𝑝1 1−𝑝2 ) Dimostrazione • La covarianza è un indice per variabili bivariate che indica quanto variano. X_1 e X_2 sono variabili casuali discordi, perché al crescere di uno decresce l’altro, perciò la cov è negativa. 10 • Media 𝐸[𝑋] = 𝜃 𝜃−1 𝑥0 • Varianza 𝑉𝑎𝑟(𝑋) = 𝐸[𝑋2] − 𝐸[𝑋]2 = 𝜃𝑥0 2 (𝜃−1)2(𝜃−2) esiste per 𝜃 > 2 • Dato che non esistono tutti i momenti, ma solo quelli di ordine 𝑟 < 𝜃, non esiste la funzione generatrice dei momenti. Quindi la v.c. di Pareto possiede solo i momenti fino al valore 𝜃 e in tal caso 𝜃𝑥𝑜 𝑟 𝜃−𝑟 • Quantili 𝑥𝑝 = 𝑥0 (1−𝑝) 1 𝜃 sono proporzionali al minimo • Funzione di ripartizione 𝐹𝑋(𝑥) = { 0 𝑥 < 𝑥0 1 − ( 𝑥0 𝑥 ) 𝜃 𝑥 ≥ 𝑥0 V.c. esponenziale 𝑋~𝐸𝑠𝑝(𝜃) Questa variabile viene utilizzata per modellizzare il tempo di vita di un oggetto, tra una rottura e la successiva (la cui speranza di vita cala nel tempo). In tal caso, X indicherebbe il tempo e se 𝜃 è grande la maggior parte degli utensili si rompe subito. In generale, misura il tempo continuo tra un accadimento ed un altro, oppure il tempo di attesa del primo accadimento (la prima rottura). Caratteristiche: • Funzione di densità 𝑓(𝑥) = { 𝜃𝑒−𝜃𝑥 𝑥 ≥ 0 0 𝑎𝑙𝑡𝑟𝑜𝑣𝑒 • Media 𝐸[𝑋] = 1 𝜃 • Varianza 𝑉𝑎𝑟(𝑋) = 1 𝜃2 • Quantili 𝑥𝑝 = 1 𝜃 log ( 1 1−𝑝 ) Funzione di ripartizione 𝐹𝑋(𝑥) = { 0 𝑠𝑒 𝑥 < 0 1 − 𝑒−𝜃𝑥 𝑠𝑒 𝑥 ≥ 0 • Proprietà di assenza di memoria: il fatto che abbia vissuto nel tempo 𝑋1 non aumenta la probabilità che continui a vivere fino a 𝑋2, ma rimane esattamente la stessa. La probabilità che sopravviva fino al tempo 𝑋2 è pari alla probabilità che sopravviva nel tempo inferiore a 𝑋2 − 𝑋1. 𝑝(𝑋 > 𝑋2|𝑋 > 𝑋1) = 𝑝(𝑋 > (𝑋2 − 𝑋1)) Dimostrazione V.c. normale (o di Gauss) 𝑋~𝑁(𝜇, 𝜎2) La variabile casuale normale si usa per qualsiasi fenomeno simmetrico di cui si misurano media e varianza, e di cui si misura un certo aspetto caratterizzato da incertezza. Caratteristiche: • Funzione di densità è una curva a campana, dove 𝜎 misura l’ampiezza. È simmetrica rispetto alla media 𝜇 11 • Media (valore assunto dalla variabile) 𝐸[𝑋] = 𝜇 • Varianza (grado di incertezza) 𝑉𝑎𝑟(𝑋) = 𝜎2 • Se Y è una distribuzione lineare di X, che si distribuisce secondo una normale, allora anche Y è distribuita secondo la legge normale. • Si standardizza la v.c. normale X e sicuramente, per il teorema precedente, Z avrà una distribuzione normale: 𝑍 = 𝑋−𝜇 𝜎 Le probabilità cumulate della normale standard sono tabulate, e si indica la funzione di ripartizione di 𝑍~𝑁(0,1) come 𝑝(𝑍 ≤ 𝑧) = 𝐹𝑧(𝑍) = (𝑧) • Proprietà riproduttiva: la somma di due v.c. normali è a sua volta una normale con parametri pari alla somma delle medie e alla somma delle varianze  𝑋 = 𝑋1 + 𝑋2~𝑁(𝜇1 + 𝜇2; 𝜎1 2 + 𝜎2 2) V.c. lognormale 𝑋~𝑙𝑜𝑔𝑁(𝛾, 𝛿) È una variabile casuale continua che può assumere qualunque valore positivo (S=x>0). Caratteristiche: • Funzione di densità • Le variabili casuali normale e lognormale sono strettamente legate, infatti il logaritmo di una v.c. lognormale si distribuisce secondo una v.c. normale. Si standardizza 𝑝 ( 𝑌−𝛾 𝛿 ≤ log(𝑦)−𝛾 𝛿 ) • Media 𝐸[𝑋] = 𝑒𝑦+ 1 2 𝛿2 • Varianza 𝑉𝑎𝑟(𝑋) = 𝑒2𝛾+𝛿2(𝑒𝛿2 −1) • Quantili 𝑥𝑝 = 𝑒𝛾−𝜎𝑧𝑝 dove 𝑧𝑝 è ottenuto dalla standardizzazione 𝑝(𝑍 ≤ 𝑧𝑝) V.c. lambda (cenni) 24. Legame tra Poisson ed esponenziale La v.c. esponenziale è strettamente legata alla v.c. discreta di Poisson. • La v.c. discreta 𝑋~𝑃() conta il numero di accadimenti in un intervallo temporale di ampiezza t • La v.c. continua 𝑌~𝐸𝑠𝑝(𝜃) modellizza il tempo che intercorre tra un evento ed il successivo Contando il numero di eventi in un intervallo temporale si può dedurre il tempo che intercorre in media tra un accadimento e il successivo, perciò i parametri delle due variabili ( e θ) sono legati. Quindi rappresentano uno stesso evento:  = 𝜽𝒕 12 25. Legame tra esponenziale e Gamma La variabile casuale continua Gamma rappresenta il tempo di attesa necessario perché avvengano i primi a accadimenti. La v.c. esponenziale estesa, attendendo a accadimenti, diventa una v.c. Gamma. • 𝑓. 𝑔. 𝑚. = 𝑚𝑦(𝑡) = (𝑚𝑥(𝑡)) 𝑎 = ( 𝜃 𝜃−𝑡 ) 𝑎 • 𝐸[𝑌] = 𝑎 𝜃 • 𝑉𝑎𝑟(𝑋) = 𝑎 𝜃2 26. Significato di fare inferenza L’inferenza consiste nell’estendere i risultati del campione all’intera popolazione. Si vuole inferire, cioè, a partire dal campione, concludere qualcosa riguardo alla popolazione. Ogni volta che si cambia il campione, la situazione potrebbe essere differente, perciò non necessariamente coincide con quella della popolazione. Dunque i risultati sono affetti da incertezza e si vuole misurare l’affidabilità del campione per poter dire qualcosa sulla popolazione. 27. Teorema e dimostrazione del limite centrale Il teorema del limite centrale afferma che lim 𝑛→+∞ 𝑝(𝑍𝑛 ≤ 𝑥) = 𝐹𝑍𝑛 (𝑥) = (𝑥) cioè, quando n è molto grande, qualsiasi sia la variabile casuale X, sommando le variabili casuali e standardizzando la variabile casuale risultante, la sua funzione di ripartizione assomiglia a quella di una curva normale. 𝑆𝑛 ≈ 𝑁(𝐸[𝑆𝑛] = 𝑛𝜇; 𝑉𝑎𝑟(𝑆𝑛) = 𝑛𝜎2) 28. Disuguaglianza di Chebychev Qualsiasi sia la funzione di probabilità o di densità di una v.c. di cui si conoscono media e varianza, la varianza dà indicazione di quanto varia la v.c. rispetto alla media 𝜇. Per ogni 휀 > 0 si ha: 𝑝(|𝑥 − 𝜇| < 휀) ≥ 1 − 𝜎2 2 29. Legge debole dei grandi numeri Per la legge dei grandi numeri, data una variabile binomiale, la percentuale di successi converge alla probabilità di successo di ogni singola prova. Sia W una variabile casuale binomiale di parametri n e p, allora si ha: lim 𝑛→+∞ 𝑝 (| 𝑊 𝑛 − 𝑝| < 휀) = 1 Dove W/n indica la percentuale di successi, e non sarà mai uguale a p, la vera probabilità di successo. Questa legge afferma che, al crescere di n, l’area di W/n, cioè la proporzione di successi nelle n prove indipendenti, si stringe su p. Dimostrazione 15 32. Proprietà della stima puntuale di una proporzione Si ha una popolazione di numerosità N molto elevata, che può o meno avere una certa caratteristica. Lo stimatore è detto proporzione campionaria, ed è il numero di individui del campione che hanno la caratteristica di successo diviso per il numero di elementi del campione ?̂? = 𝑊 𝑛 1. Non distorsione 𝐸[?̂?] = 𝑝 è uno stimatore distorto per p. 2. Efficienza: lo stimatore è tanto più efficiente quanto più n è grande 𝑉𝑎𝑟(?̂?) = 𝑝(1−𝑝) 𝑛 3. Consistenza: al crescere di n, l’errore di stima deve tendere a 0 lim 𝑛→∞ 𝑝(|?̂? − 𝑝| < 휀) = 1 4. Asintotica normale ?̂?~𝑁(𝐸[?̂?] = 𝑝; 𝑉𝑎𝑟(?̂?) = 𝑝(1−𝑝) 𝑛 Dimostrazione Proprietà dimostrate dalla legge dei grandi numeri. 33. Stima puntuale di una varianza La media della variabile quantitativa X è sempre incognita, ma il parametro di interessa 𝜃 è la varianza. La varianza campionaria è la variabile casuale 𝑆2 = 1 𝑛 ∑ (𝑥𝑖 − ?̅?)2𝑛 𝑖=1 . 1. Non distorsione 𝐸[𝑆2] ≠ 𝜎2 è uno stimatore distorto della varianza, minore rispetto alla varianza (incognita). Dimostrazione 16 34. Stima intervallare di 𝜃 e intervallo di confidenza Con la stima puntuale, non si dà alcuna informazione relativamente alla affidabilità della stima effettuata. Perciò, si preferisce dare un intervallo di confidenza, cioè una stima intervallare, rappresentata da due valori (estremo destro e sinistro) tra i quali si ritiene sia contenuto il parametro incognito.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved