Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Distribuzioni Probabilistiche: Funzione di Distribuzione Cumulata e Densità di Probabilità, Dispense di Statistica

Le distribuzioni probabilistiche di una variabile aleatoria x, con un focus particolare sulla funzione di distribuzione cumulata e densità di probabilità. Le proprietà di x e introduce diverse distribuzioni specifiche come uniforme, normale, esponenziale, gamma, t-student e chi-quadrato. Vengono inoltre presentate le relazioni tra queste distribuzioni e i loro parametri.

Tipologia: Dispense

2012/2013

Caricato il 06/02/2013

magoo
magoo 🇮🇹

4.5

(16)

14 documenti

1 / 32

Toggle sidebar

Documenti correlati


Anteprima parziale del testo

Scarica Distribuzioni Probabilistiche: Funzione di Distribuzione Cumulata e Densità di Probabilità e più Dispense in PDF di Statistica solo su Docsity! CAPITOLO SECONDO VARIABILI ALEATORIE 2.1 DEFINIZIONI Il risultato di una prova di un generico esperimento casuale non è sempre esprimibile direttamente in termini di numeri reali (si pensi per esempio al lancio di una moneta, o all’estrazione da un’urna di palline con colori diversi). Tuttavia, nello sviluppo del Calcolo delle probabilità siamo interessati ad associare un numero reale x = X(ω) a qualsiasi risultato ω di ogni prova dell’esperimento casuale. Il funzionale X : Ω → IR che cośı si viene a definire è chiamato variabile aleatoria o casuale (abbreviata nel seguito con v.a. o v.c) se soddisfa a queste due condizioni: 1. X è una funzione a valori reali definita sullo spazio di probabilita’ (Ω,B, P ) e misurabile, nel senso che le immagini inverse di intervalli Bi ⊆ IR appartengono al campo di Borel degli eventi Ai: X−1(Bi) = Ai ∈ B ; 2. per ogni numero reale x, l’insieme {ω : X(ω) ≤ x} è ancora un evento in B. La v.a. X(ω) è dunque una funzione che fa corrispondere a ciascun risultato ω dell’esperimento casuale un elemento x di IR, e ad ogni evento Ai ∈ B ⊆ Ω un in- tervallo Bi ⊆ IR come è illustrato in Fig. 2.1. L’intervallo Bi appartiene a una infinità numerabile di insiemi che costituiscono un campo di Borel B∗ su X(Ω) ⊆ IR. In particolare, all’evento impossibile ∈ Ω è associato l’insieme vuoto dei numeri reali, e all’evento certo Ω è associato l’intervallo X(Ω) ⊆ IR. Inoltre, poiché il funzionale X è definito su uno spazio di probabilità, la v.a. associa alla proba- bilità P (Ai) = P [X −1(Bi)], definita su Ω, una eguale probabilità immagine P ∗(Bi), definita su X(Ω). Quest’ultima misura la probabilità che la v.a. X(ω) assuma valori reali x ∈ Bi, ed è tale che P ∗(Bi) = P [X −1(Bi)] = P (Ai). 15 W w w A X X = X( ) B = X(A ) P P* 0 1 ii P(A ) = P*(B )ii i x R R Figura 2.1 Nel seguito indicheremo una v.a. con la lettera maiuscola (per es. X), mentre il generico valore reale che essa può assumere sarà indicato con la lettera minuscola corrispondente. La v.a. X(ω) assume un valore x ∈ IR con una ben definita proba- bilità, che è indotta in X(Ω) ⊆ IR dalla probabilità P (ω) che si verifichi ω ∈ Ω. In conclusione, una variabile aleatoria è la trasformazione (Ω,B, P ) X−→ (IR,B∗, P ∗) che associa ad ogni elemento ω ∈ Ω una coppia di numeri reali (x, P ∗(x)) = (X(ω), P (ω)) con P ∗(x) = P (ω) ∈ [0, 1]. Esempio 2.1 Nel lancio di una moneta per due volte, in cui Ω = {TT, TC,CT,CC}, definiamo la v.a. X(ω) che a ciascuno dei 4 possibili eventi elementari associa un ”guadagno” 1 se esce T , e una ”perdita” di una unità se esce C. La v.a. X(ω) assume allora tre valori discreti: x1 =X(ω = CC) = −2 x2 =X(ω = TC) = X(ω = CT ) = 0 x3 =X(ω = TT ) = 2 e l’immagine di Ω è il sottoinsieme: X(Ω) = {−2, 0, 2} ⊂ R. Poiché i quattro eventi elementari sono equiprobabili con probabilità P (ω) = 1/4, si ha che la probabilità immagine, indotta in X(Ω) per ciascuno dei tre valori di X, vale rispettivamente: P ∗(−2) = P (TT ) = 1/4 P ∗(0) = P (TC ∪ CT ) = 1/2 P ∗(2) = P (CC) = 1/4. 16 Esempio 2.3 La funzione di variabile reale: FX(x) = { 0 per x < 0 3x2 − 2x3 per x ∈ [0, 1] 1 per x > 1 (2.4) è tale che FX(0) = 0; FX(1) = 1 e la sua derivata F ′ X(x) = 6x(1 − x) è non negativa per ogni x ∈ [0, 1]. Essa può dunque essere riguardata come la funzione di distribuzione di una v.a. X(ω) continua nell’intervallo [0, 1], il cui grafico è riportato in Fig. 2.2b). Esempio 2.4 L’esperimento consiste nell’estrazione a caso di un numero x compreso tra 0 e 1. Definiti i tre eventi composti: A1 = {ω : x ∈ [0, 14 ] }, A2 = {ω : x ∈ ( 14 , 34 ] }, A3 = {ω : x ∈ ( 34 , 1] } aventi probabilità P (A1) = P (A3) = 1 4 ;P (A2) = 1 2 , associamo ad essi la v.a. X(ω) = { 0 se ω ∈ A1 x se ω ∈ A2 1 se ω ∈ A3. La sua funzione di distribuzione si calcola come segue: x < 0 : F (x) = P (X < 0) = 0 0 ≤ x ≤ 14 : F (x) = P (X ≤ 0) = P (A1) = 14 1 4 < x ≤ 34 : F (x) = P (X ≤ 0) + P ( 14 < X ≤ x) = 14 + (x − 14 ) = x 3 4 < x < 1 : F (x) = P (X ≤ 0) + P ( 14 < X ≤ 34 ) = 34 x ≥ 1 : F (x) = P (X ≤ 0) + P ( 14 < X ≤ 34 ) + P (X ≤ 1) = 34 + 14 = 1. (2.5) Questa funzione è discontinua nei punti x = 0 ed x = 1 e continua altrove, e definisce una v.a. mista la cui distribuzione di probabilità è indicata nella Fig. 2.2c). 2.1.2 Densità di probabilità • V.a. continue. Data una v.a. X(ω) continua in X(Ω) ⊆ IR e scelto un insieme B ⊆ X(Ω), introduciamo la funzione integrabile fX(x) : IR → [0,+∞) tale che ∫ B fX(x)dx = P (X ∈ B). (2.6) Tale funzione fX(x) si chiama densità di probabilità o funzione di densità di X(ω), e il suo integrale misura la probabilità che X(ω) abbia valori x ∈ B. Per gli assiomi del Calcolo delle probabilità, essa deve soddisfare le seguenti proprietà: fX(x) ≥ 0; ∫ S fX(x)dx = 1 (2.7) 19 x f ( )x X xd f ( )x X xddP( ) =w 0 xP(X ) Figura 2.3 dove S è il supporto di fX(x), ossia l’insieme S = {x ∈ IR : fX(x) > 0}. Per la definizione di funzione di distribuzione cumulata, si ha ∫ x −∞ fX(t)dt = P (X ≤ x) = FX(x) (2.8) e quindi anche, se B è l’intervallo elementare (x, x + dx]: P (x < X ≤ x + dx) = FX(x + dx) − FX(x) = ∫ x+dx x fX(t)dt ∼= fX(x)dx. (2.9) La quantità elementare dP (ω) = dFX(x) = fX(x)dx misura pertanto, a meno di infinitesimi di ordine superiore, la probabilità elementare che X(ω) assuma valori in (x, x + dx]. Da quanto esposto discende anche che fX(x) = dFX(x) dx (2.10) quasi ovunque in X(Ω), ovvero: la densità di probabilità è uguale alla derivata della funzione di distribuzione di X(ω), tranne al più in un insieme di punti di misura nulla, nei quali FX(x) non è derivabile. Esempio 2.5 La v.a. continua con funzione di distribuzione definita dalla (2.3) dell’Esempio 2.3, ha come densità di probabilità la funzione fX(x) = { 0 per x < 0 6x(1 − x) per x ∈ [0, 1] 0 per x > 1, che è un arco di parabola su un supporto di ampiezza unitaria, come mostrato in Fig. 2.4b). • V.a. discrete e miste. Affinché le formule precedenti continuino a valere in presenza di v.a. discrete o miste, è necessario utilizzare la funzione impulsiva o funzione delta di Dirac. Si tratta della funzione generalizzata cos̀ı definita: 20 00 1/4 3/4 11 xxx xf ( ) Xx f ( ) X xf ( ) X 1 1/4 -2 0 2 1/4 1/2 a) v.a. discreta b) v.a. continua c) v.a. mista Figura 2.4 ∀x 6= x∗ : δ(x − x∗) = 0 , δ(x − x∗) è infinita per x∗ = 0 ∫ ∞ −∞ δ(x − x∗)dx = 1 , ∫ ∞ −∞ ϕ(x)δ(x − x∗)dx = ϕ(x∗) dove ϕ(x) è una arbitraria funzione di x, continua per x = x∗. La primitiva di δ(x − x∗) che si annulla per x → −∞ è la funzione gradino unitario definita nella (2.3): U(x − x∗) = ∫ x −∞ δ(ξ − x∗)dξ. Per mezzo della funzione impulsiva, la densità di una v.a. discreta che assume valori in x1, x2, . . . con probabilità pi, i = 1, 2, . . . si può esprimere nel modo seguente: fX(x) = ∑ i piδ(x − xi) con ∑ i pi = 1 (2.11) e si rappresenta graficamente con una successione di impulsi come indicato in Fig. 2.4a). Essa mostra la densità di probabilità della v.a. che abbiamo associato al lancio ripetuto di una moneta, che si ricava derivando la (2.2’) e vale fX(x) = 1 4δ(x + 2) + 1 2δ(x) + 1 4δ(x − 2). (2.12) La v.a. mista considerata nell’Esempio 2.4 ha invece una densità che si può esprimere come segue: fX(x) = U(x − 14 ) − U(x − 34 ) + 14δ(x) + 14δ(x − 1) ed è mostrata in Fig. 2.4c). La densità (2.11) di una v.a. discreta si scrive anche spesso nella seguente forma semplificata: fX(xi) = pi , i = 1, 2, . . . ; fX(x) = 0, ∀x 6= xi che non richiede l’introduzione della funzione impulsiva. 21 perché definiti dall’integrale di una funzione dispari; e ciò vale anche per le v.a. discrete, se definite da una successione simmetrica di impulsi. D’altra parte, accertata l’esistenza dei momenti finiti di una v.a., non è assicurato che essi individuino la sua densita’ di probabilità fX(x). Infatti, possono esistere variabili aleatorie che hanno tutti i loro momenti uguali, ma differenti distribuzioni di probabilità. Perché una successione {E{Xq}} di momenti individui univocamente una densità di probabilità, devono essere soddisfatte ulteriori condizioni. Una di queste è la seguente, che citiamo senza dimostrazione. Condizione sufficiente per l’unicità di fX(x). Data una successione di momenti finiti di una v.a. X(ω), se esiste un k 6= 0 tale che E{X2q} · k 2q (2q)! → 0 per q → +∞ (2.17) allora la successione E{Xq}, q = 1, 2, . . . individua univocamente la densità di proba- bilità di X(ω). Esempio 2.6 La v.a. discreta definita nell’Esempio 2.1, che ha densità data dalla (2.12), ha mo- menti di ordine dispari che sono nulli (infatti fX(x) è simmetrica), e quelli di ordine pari valgono: E{Xq} = ∑ i pix q i = 1 4 (−2)q + 1 4 2q = 2(q−1), q = 2, 4, 6, . . . La successione di questi momenti individua univocamente la densità (2.12), perchè è soddisfatta la condizione (2.17) con k = 1/2: E{X2q} · (1/2) 2q (2q)! = 22q(1/2)2q 2 · (2q)! = 1 2 · (2q)! → 0 per q → +∞. 2.3 DISTRIBUZIONI NOTEVOLI IN PROBABILITA’ E STATISTICA 2.3.1 Distribuzione uniforme E’ la generalizzazione della legge di eventi equiprobabili già esaminata nell’Esempio 1.5. Una v.a. X(ω) uniformemente distribuita nell’intervallo [a, b] ha densità fX(x) = 1 b − a per a ≤ x ≤ b ; fX(x) = 0 altrove. (2.28) Si noti che fX(x) soddisfa entrambe le condizioni (2.7) richieste ad una funzione densità di probabilità. La funzione di distribuzione cumulata è FX(x) = { 0 per x < a (x − a)/(b − a) per a ≤ x ≤ b 1 per x > b 24 a b x a b x 1 b-a f ( )x X F ( )xX 1 0 Figura 2.5 - Distribuzione uniforme ed i momenti valgono E{Xq} = ∫ b a xq b − adx = bq+1 − aq+1 (b − a)(q + 1) . In particolare, si ha subito che il valor medio di X(ω) è ovviamente: mX = a + b 2 e la varianza vale: σ2X = a2 + ab + b2 3 − m2X = (b − a)2 12 . 2.3.2 Distribuzione normale Una v.a. reale X(ω) ha una distribuzione normale o gaussiana se la sua densità vale fX(x) = 1√ 2πσX exp [ − (x − mX) 2 2σ2X ] , x ∈ IR (2.29) dove i parametri mX ∈ IR e σ2X > 0 sono rispettivamente il valor medio e la varianza di X(ω). La distribuzione normale, che si indica con la notazione N (mX , σ2X), ha la seguente funzione di distribuzione: FX(x) = 1√ 2πσX ∫ x −∞ exp [ − (x − mX) 2 2σ2X ] dx = 1 2 + erf ( x − mX σX ) (2.30) dove erf (z) è la funzione degli errori: erf (z) = 1√ 2π ∫ z 0 e− t2 2 dt, soddisfacente tra l’altro le proprietà: erf (−z) = −erf (z) ; lim z→∞ erf (z) = 1/2 25 0.1 0.2 0.3 X X = 0.05s X 2 = 0.05sX 2 m X f ( )x x m X 0 0.5 1 F ( ) 0.1 0.2 0.3 Figura 2.6 - Distribuzioni normali e nota quantitativamente attraverso i suoi valori tabulati. Ne segue che FX(x) è monotona crescente tra 0 e 1, e vale 1/2 per x = mX perché la densità (2.29) è simmetrica rispetto al suo valor medio (v. Fig. 2.6). La v.a. Z(ω) che è distribuita con legge normale N (0, 1), ovvero ha media nulla e varianza unitaria, prende il nome di normale standard. Si può facilmente provare (con i metodi che saranno esposti nel prossimo Capitolo) che la sua densità si ricava dalla (2.29) mediante il cambiamento di variabile: z = x − mX σX , (2.31) il che significa che la densità e la funzione di distribuzione di Z(ω) sono: fZ(z) = 1√ 2π e− z2 2 , FZ(z) = 1 2 + erf (z). (2.32) Si noti che nella (2.31) σX è la deviazione standard di X(ω), e quindi z è un numero puro. Poiché erf (z) si ricava direttamente dalla tabella dei valori della funzione degli errori, nel calcolo di misure di probabilità riguardanti distribuzioni normali con media e varianza note, è spesso assai più comodo effettuare la trasformazione (2.31) e operare sulla variabile standardizzata Z(ω) che ha legge N (0, 1). Questa procedura è usuale nei metodi statistici che saranno esposti nei prossimi Capitoli. Ad esempio, dalla tabella di erf (z) che è riportata in Appendice si ricava subito: P (|X − mX | ≤ σX) = P (|Z| ≤ 1) = FZ(1) − FZ(−1) = 2 erf (1) ' 0.6826 P (|X − mX | ≤ 2.15σX) = P (|Z| ≤ 2.15) = 2 erf (2.15) ' 2 · 0.4842 = 0.9684 P (|X − mX | ≤ 3σX) = P (|Z| ≤ 3) = FZ(3) − FZ(−3) = 2 erf (3) ' 0.9974. Da questo calcolo si deduce, tra l’altro, che ogni v.a. normale N (mX , σ2X) assume valori compresi tra mX −σX e mX + σX con probabilità che è circa uguale a 0.6826, e la probabilità sale a 0.9974 (avvicinandosi a quella dell’evento certo) se si considera l’intervallo [mX − 3σX ,mX + 3σX ]. 26 La distribuzione esponenziale dei tempi di attesa ha una notevole proprietà: per ogni t, s ∈ IR la probabilità di attendere un evento per un tempo t + s, sapendo di aver già atteso il tempo s, è uguale alla probabilità di attendere l’evento per una durata di tempo t. Infatti, ricordando la definizione (1.2) di probabilità condizionata, si ha P (X > t + s | X > s) = P ({X > t + s} ∩ {X > s}) P (X > s) = P (X > t + s) P (X > s) = = 1 − FX(t + s) 1 − FX(s) = e−λt = 1 − FX(t) = P (X > t). Si dice perciò che la legge esponenziale è “senza memoria”, nel senso che il tempo s già trascorso non influenza la probabilità che l’evento si verifichi in qualunque istante successivo all’istante s in cui è iniziata l’osservazione. 2.3.5 Distribuzione di Maxwell Si dimostrerà nel Capitolo IV che il vettore V (ω) avente come componenti cartesiane ortogonali tre variabili aleatorie statisticamente indipendenti e con uguale distri- buzione normale N (0, σ2), è una v.a. con densità di probabilità fV (v) = √ 2 π v2 σ3 exp ( − v 2 2σ2 ) , v ≥ 0. (2.37) La densità (2.37) definisce la distribuzione di Maxwell, che ha valor medio e varianza uguali a E{V } = 2σ √ 2/π ; σ2V = σ 2(3 − 8/π) (2.38) dove σ2 è, come detto, la varianza delle componenti di V (ω). Si osservi anche che fV (v) non è simmetrica rispetto al suo valor medio: infatti ha un massimo per v =√ 2σ 6= E{V }. La distribuzione di Maxwell è di grande importanza nella Meccanica statistica, perché è il modello probabilistico della velocità di agitazione termica delle molecole di un gas in equilibrio termodinamico. Se indichiamo con m la massa molecolare, con T la sua temperatura e con k la costante di Boltzmann, allora risulta σ2 = kT m , e il valor medio dell’energia cinetica T della molecola del gas in equilibrio è uguale a E{T } = 12mE{V 2}. Ma sostituendo il valore di σ2 nelle (2.38) si ottiene: E{V 2} = kT m ( 3 − 8 π ) − 8kT mπ = 3kT m , da cui segue il noto risultato che nel modello maxwelliano le molecole di gas in equilibrio possiedono una energia cinetica media che vale E{T } = 3 2 kT. 29 = 1s = 3s = 2s 0 f ( )v v V Figura 2.8 - Distribuzioni di Maxwell Assai simile alla maxwelliana è la distribuzione di Rayleigh, riguardante le pro- prietà probabilistiche di un vettore bidimensionale V (ω) = √ X21 (ω) + X 2 2 (ω) le cui componenti, statisticamente indipendenti, hanno legge normale N (0, σ2). La sua densità di probabilità è la funzione fV (v) = v σ2 exp ( − v 2 2σ2 ) , v ≥ 0, con valor medio e varianza che valgono: E{V } = σ √ π/2, σ2V = σ 2(2 − π/2). 2.3.6 Distribuzione t-Student La v.a. X(ω) che può assumere qualsiasi valore x ∈ IR ha una distribuzione chiamata t-Student con n gradi di libertà, n = 1, 2, 3, . . . (dallo pseudonimo dello statistico britannico W.S. Gosset) se la sua densità di probabilità vale: fX(x) = Γ ( n + 1 2 ) √ nπ · Γ (n 2 ) ( 1 + x2 n )− n+1 2 (2.39) dove Γ(·) è la funzione Gamma (2.34). Il suo valor medio è nullo: E{X} = 0 per ogni n e la sua varianza, che è definita solo per n > 2, vale σ2X = n n − 2 . 30 n = 6 n = 4 n = 2 N (0, 1) 0 x xf ( ) X Figura 2.9 - Confronto tra distribuzioni t-Student e Normale standard Per n = 1, la distribuzione t-Student si riduce alla distribuzione di Cauchy: fX(x) = 1 π(1 + x2) , che ha valor medio nullo ma è priva dei momenti di ordine superiore, perché l’integrale (2.13) che li definisce diverge per q ≥ 2. Poiché n è intero, il coefficiente di normalizzazione nella (2.39) si determina facilmente utilizzando le proprietà (2.34’) della funzione Gamma, in modo che per n pari: n = 2k, k = 1, 2, . . . la densità t-Student si può riscrivere nella forma: fX(x) = 1 · 3 · 5 · · · (2k − 1)√π 2k √ 2kπ(k − 1)! ( 1 + x2 2k )−(k+ 1 2 ) (2.39′) e per n dispari: n = 2k + 1, k = 1, 2, . . . si ha: fX(x) = 2k · k! 1 · 3 · 5 · · · (2k − 1)π √ 2k + 1 ( 1 + x2 2k + 1 )−(k+1) . (2.39′′) La distribuzione t-Student ha questa interessante proprietà: per n → ∞ essa tende alla distribuzione normale standard N (0, 1), ma ha una dispersione più elevata per piccoli valori di n > 2. Per questo motivo, essa trova frequenti applicazioni in Sta- tistica, quando la stima dei valori medi di una popolazione è da effettuare su piccoli campioni (v. pag. 148 e seguenti del Capitolo 8). 2.3.7 Distribuzione Chi-quadrato Una v.a. che assume valori x ∈ IR+ ha una distribuzione Chi-quadrato con n gradi di libertà, che si indica con il simbolo χ2n, se la sua densità di probabilità è la funzione fX(x) = x n 2 −1e− x 2 2n/2 · Γ(n/2) , x ≥ 0 (2.40) 31 Se poi il successo e il fallimento sono equiprobabili, allora si ha p = q = 12 , e la formula diventa: Pn,k = ( n k ) 1 2n , (2.42′) in cui la probabilità in oggetto è il rapporto tra i casi favorevoli e i casi possibili definiti in uno spazio campione costituito da 2n eventi equiprobabili. In modo analogo, la probabilità Pn(k1 ≤ k ≤ k2) che in n prove il numero di successi sia compreso tra k1 e k2 si valuta considerando l’unione degli eventi: Ek = {S si presenta k volte} con k1 ≤ k ≤ k2, ciascuno dei quali ha probabilità espressa dalla (2.42). Poichè gli eventi Ek sono incompatibili a due a due, la probabilità della loro unione vale, per il secondo assioma: Pn(k1 ≤ k ≤ k2) = k2 ∑ k=k1 P (Ek) = k2 ∑ k=k1 ( n k ) pkqn−k. (2.43) Esempio 2.7 1) Si lancia per dieci volte una moneta. In ogni lancio l’evento ”testa” e l’evento ”croce” sono equiprobabili, per cui la probabilità che esca ”testa” per cinque volte vale, per la (2.42’): P10,5 = ( 10 5 ) (1/210) = 10! 5!(10 − 5)! · 210 = 0.246. Per determinare la probabilità che ”testa” esca non più di cinque volte, bisogna invece considerare come ”successi” anche tutte le sequenze che contengono k = 0, 1, .., 4 volte ”testa”. Ne segue che la probabilità totale è data dalla (2.43) e vale P10,k≤5 = (1/2 10) 5 ∑ k=0 ( 10 k ) = 10! 210 5 ∑ k=0 1 k!(10 − k)! = 0.623. 2) Da un’urna contenente 5 palline bianche e 15 nere si fanno n estrazioni, con reimbussolamento della pallina estratta in ogni prova. La probabilità di estrarre tutte le palline bianche si determina considerando che in ogni prova, la probabilità di estrarre una pallina bianca vale p = 1/4, e quella di estrarre una pallina nera è q = 3/4. Applicando la (2.42) si ottiene: Pn,5 = ( n 5 ) · (1/4)5(3/4)n−5 = ( n 5 ) 3n−5 4n . Dunque, dopo n = 5 estrazioni la probabilità cercata vale 1/45 = 9.76 · 10−4; dopo 6 estrazioni cresce al valore 6 · 3/46 = 4.39 · 10−3, ecc. Primo principio delle prove ripetute. Per la formula di Bernoulli la probabilità di non avere alcun successo dopo n prove di un esperimento casuale in cui p > 0 vale Pn,0 = ( n 0 ) p0qn−0 = qn 34 e quella di ottenere almeno un successo è Pn,k>0 = 1 − qn. Poichè 0 < q < 1, ripetendo all’infinito le prove si ottiene lim n→∞ Pn,k>0 = 1 ovvero: continuando le prove all’infinito, prima o poi si avrà certamente almeno un successo. Secondo principio delle prove ripetute. Chiediamoci ora quale è il numero medio delle prove che si dovranno eseguire per ottenere il primo successo. Definiamo a tale scopo il tempo di attesa T (ω), o numero d’ordine delle prima prova in cui si verifica il successo. T (ω) è una variabile aleatoria discreta, che assume valori interi positivi k = 1, 2, .., n,.. aventi ciascuno la probabilità Pk = pq k−1 con cui si realizza una sequenza di (k − 1) fallimenti seguiti dal primo successo. Se si ripetono le prove all’infinito, e se p > 0, si sa per il Primo principio che le Pk soddisfano la condizione ∑ k Pk = 1. Dalla definizione di valor medio di T (ω) si ricava allora E{T} = ∞ ∑ k=1 kPk = ∞ ∑ k=1 kpqk−1 = p + ∞ ∑ k=2 kpqk−1 = p + q · ∞ ∑ r=1 (r + 1)pqr−1 = = p + q ( ∞ ∑ r=1 rpqr−1 + ∞ ∑ r=1 Pr ) = p + q(E{T} + 1). Da questa si ottiene: pE{T} = p + q = 1, e quindi E{T} = 1 p . (2.44) Resta cośı provato il seguente risultato: il numero medio delle prove che occorre eseguire per ottenere il primo successo è il reciproco della probabilitá di successo. La variabile aleatoria discreta X(ω) che assume un numero finito di valori x = k = 0, 1, 2.., n con una probabilitá data dalla (2.42) si dice dotata di distribuzione bino- miale(∗) ed è indicata con la notazione B(n, p). La sua densità di probabilità è la successione di n + 1 impulsi: fX(x) = n ∑ k=0 ( n k ) pkqn−kδ(x − k), p + q = 1 (2.45) e la corrispondente funzione di distribuzione è la funzione a gradini FX(x) = n ∑ k=0 ( n k ) pkqn−kU(x − k) (∗) Se n = 1, la distribuzione è detta di Bernoulli. 35 0 5 10 15 20 x xf ( ) X N (10, 6) 0.1 Figura 2.12 - Approssimazione di una distribuzione binomiale con n = 25, p = 0.4. dove U(x− k) è la funzione di Heaviside (2.3), primitiva della funzione impulsiva. Il valor medio della distribuzione binomiale vale: E{x} = ∫ x n ∑ k=0 ( n k ) pkqn−kδ(x − k)dx = n ∑ k=0 k ( n k ) pkqn−k = = np n ∑ k=1 k(n − 1)! k!(n − k)!p k−1qn−k = np n−1 ∑ r=0 ( n − 1 r ) prqn−1−r = np(p + q)n−1 = np e in modo analogo si può calcolare che la sua varianza è σ2X = npq. L’applicazione delle formule (2.42),(2.43) può comportare difficoltà pratiche per valori elevati di n e di k. Esistono però formule asintotiche che permettono un rapido calcolo approssimato di Pn,k e Pn(k1 ≤ k ≤ k2), con una accuratezza che cresce con il numero n delle prove. Queste formule approssimate si basano su due teoremi, che ora enunciamo senza dimostrazione. Teorema locale di asintoticità (di Moivre - Laplace) Se p > 0 è la probabilità di un successo, la probabilità che in n prove indipendenti si abbiano k successi è tale che: lim n→∞ Pn,k = 1√ 2πnpq exp [ − (k − np) 2 2npq ] (2.46) uniformemente per tutti gli interi k per i quali il rapporto z = (k − np)/npq assume valori in un intervallo finito. Il secondo membro della (2.46) è la densità di una v.a. normale N (np, npq) con media np e varianza npq. Dunque il Teorema ci assicura che se n e npq sono sufficientemente grandi, la distribuzione binomiale è approssimabile nel continuo dalla legge normale: B(n, p) ∼ N (np, npq) n, npq >> 1. (2.46′) 36 = 1.5l = 5l 0 1 2 3 4 5 x x0 5 10 0.20.2 f ( ) X x 6 Figura 2.13 - Distribuzioni di Poisson 2.3.10 Distribuzione di Poisson Si è detto che l’approssimazione di Pn,k fornita dalla formula asintotica (2.46’) peg- giora al descescere del prodotto npq. Se allora p è molto piccolo, bisogna che n sia comunque cośı grande da rendere soddisfatta la condizione: npq ∼= np >> 1. Ciò si verifica per l’appunto nel caso dell’Esempio 2.8 in cui, pur essendo p = 0.005, si ha np = 50 e npq = 49.75. Se invece si ha: n >> 1, p << 1 in modo che il prodotto np è dell’ordine dell’unità, la (2.46’) non è più valida. Si dimostra che essa può essere sostituita dalla nuova formula asintotica: Pn,k ∼= (np)k k! e−np (2.50) che nella sua forma limite esprime il seguente Teorema di Poisson (degli eventi rari): Se n → ∞ e p → 0 in modo che il prodotto np → λ ∼ 1, allora Pn,k → λk k! e−λ. (2.51) Esempio 2.9 In un sistema costituito da 1000 componenti, la probabilità che ciascun componente si guasti indipendentemente dagli altri in un certo intervallo di tempo vale p = 10−3. Si vuole conoscere la probabilità che il sistema sia in funzione nell’intervallo di tempo in esame. L’evento che qui si considera è E = {nessun componente si guasta}, ed il guasto con probabilità p rappresenta il singolo successo nel nostro problema di prove ripetute. Si ha pertanto: n = 1000, k = 0, np = 1 e la probabilità da determinare non si approssima con la (2.46’), benśı con la formula di Poisson (2.50): Pn,0 = ( 1000 0 ) (1 − 10−3)1000 ∼= e−1 = 0.368. / 39 La variabile aleatoria discreta X(ω) che assume valori k = 0, 1, 2, ..n, . . . con proba- bilità data dalla (2.51) ha densità costituita dalla successione di impulsi fX(x) = e −λ ∞ ∑ k=0 λk k! δ(x − k) (2.52) che definisce una distribuzione di Poisson. Il valor medio e la varianza di X(ω) coincidono con il parametro λ. Infatti: E{X} = ∞ ∑ k=0 ke−λ λk k! = e−λ ∞ ∑ k=0 λk (k − 1)! = λe −λ ∞ ∑ r=0 λr r! = λe−λeλ = λ e con calcoli analoghi si ricava che anche σ2X = λ. La Fig. 2.13 mostra i grafici di fX(x) per due diversi valori del suo parametro λ. La distribuzione di Poisson ha notevole interesse nella definizione statistica della legge di emissione di particelle. Si consideri infatti il fenomeno costituito dalla emissione casuale di un numero n >> 1 di particelle nel tempo T . La probabilità di emissione di una singola particella nell’intervallo di tempo [0, t0) è p = t0/T . Se l’intervallo [0, t0) che si considera è molto minore di T , risulta: p << 1 e la probabilità che k particelle siano emesse prima di t0 è data con buona approssimazione dalla formula di Poisson (2.50) con np = nt0/T = λ: P{k particelle emesse in [0, t0)} ' (nt0/T ) k k! exp ( −nt0 T ) . Se n, T → +∞ in modo che n/T → 1, allora λ → t0 e la distribuzione del numero di particelle emesse in [0, t0) tende alla densità di Poisson: fX(x) = e −t0 ∞ ∑ k=0 tk0 k! δ(x − k). Più in generale, la legge (2.52) è anche il modello di esperimenti casuali caratterizzati dal conteggio in un intervallo temporale [0, T ] di eventi statisticamente indipendenti (Processi di Poisson), aventi un numero medio di realizzazioni per unità di tempo uguale ad α. Si dismostra infatti che il numero di tali eventi che si verificano in un intervallo temporale di ampiezza t << T ha legge di Poisson (2.52) con parametro λ = αt. 2.3.11 Distribuzioni geometrica e ipergeometrica Nello schema di Bernoulli delle prove ripetute e indipendenti di un esperimento ca- suale con probabilità di successo p, la probabilità che in una sequenza di (k + 1) prove si realizzino k fallimenti seguiti dal primo successo vale: IP{FFF · · ·FFS} = p(1 − p)k. 40 x0 10 20 30 f (x) X 0.1 0.2 Figura 2.14 - Distribuzione geometrica per p = 0.2. La variabile casuale X(ω) che assume valori discreti k = 0, 1, 2, . . . con la proba- bilità ora definita, ha una distribuzione chiamata geometrica, avente come densità di probabilità la funzione: fX(x) = ∞ ∑ k=0 p(1 − p)kδ(x − k), 0 < p < 1 (2.53) mostrata in Fig. 2.14. Questa v.a. rappresenta quindi il numero di prove che occorre fare prima che si verifichi un successo. Per tale motivo, se si misura il tempo in unità coincidenti con il numero di prove effettuate, X(ω) è anche chiamata tempo di attesa (discreto) del primo successo.1 La funzione di distribuzione cumulata del tempo di attesa X(ω) vale FX(x) = x ∑ k=0 p(1 − p)kU(x − k). Se in particolare x = n ∈ IN, essa misura la probabilità IP(X ≤ n) ed è uguale al prodotto p · sn, dove sn = 1 p [1 − (1 − p)n+1] è la ridotta n-esima della serie geometrica ∑ k(1 − p)k di ragione 1 − p, la quale è convergente perché (1 − p) è un reale positivo minore di 1. Dunque si ha: IP(X ≤ n) = FX(n) = psn = 1 − (1 − p)n+1. (2.54) 1 Si badi a non confondere questo tempo di attesa X(ω) con la v.a. T (ω) sopra introdotta per ricavare il Secondo principio delle prove ripetute, la quale non può avere valore nullo. X = k con k = 0, 1, . . . indica il numero dei fallimenti F che precedono il successo S, mentre T = k con k = 1, 2, . . . indica la prima prova in cui si verifica un successo. 41 0 0.5 1 x f (x)X 1.0 1.5 0.5 2.0 2.5 1 2 3 4 5 6 Figura 2.15 - Distribuzioni Beta con A definito come segue: A = Γ(b + c + 2) Γ(b + 1)Γ(c + 1) , dove Γ(·) è la funzione Gamma (2.34). Questa densità, dipendente da due parametri b, c, ha un massimo per x = b/(b+c) se b e c sono entrambi positivi, ma diventa infinita agli estremi dell’intervallo unitario se b e c sono entrambi negativi: b, c ∈ (−1, 0). Inoltre, se b = c = 0 la (2.55) coincide con la densità uniforme fX(x) = 1 nell’intervallo unitario, e per b = c = 1 rappresenta la densità parabolica: fX(x) = 6x(1 − x), x ∈ [0, 1]. Per la grande generalità con cui, modificando i due parametri, può essere definita analiticamente la distribuzione delle probabilità nell’intervallo unitario, questa legge è molto utile per rappresentare le proprietà statistiche di coefficienti aleatori che possono essere presenti in molti modelli matematici di fenomeni reali. Il valor medio e la varianza di fX(x) si esprimono in funzione dei parametri b e c, e valgono: E{X} = b + 1 b + c + 2 ; σ2X = (b + 1)(c + 1) (b + c + 2)2(b + c + 3) . (2.56) La Fig. 2.15 mostra alcuni grafici della distribuzione Beta, ottenuti assumendo per b e c i valori qui elencati, unitamente ai corrispondenti valori del coefficiente A, calcolati in base alle proprietà (2.34’) della funzione Gamma: grafico 1: b = −1/2 c = −1/2 A = 1/π 2: b = 1/2 c = 1/2 A = 8/π 3: b = 1 c = 1 A = 6 4: b = 1 c = 2 A = 12 5: b = 3 c = 1 A = 20 6: b = 3 c = 3 A = 140. 44 1 2 3 0 0.5 1 1.5 x f (x) X b = 2 b = 0.5 b = 1 a a = 1 = 3 Figura 2.16 - Distribuzioni di Weibull W (α, β) al variare di α e β. 2.3.13 Distribuzione di Weibull Una legge probabilistica che generalizza il modello esponenziale, e dipendente da due parametri come la densità Beta, è la distribuzione di Weibull W (α, β) la cui densità è la funzione fX(x) = { αβxβ−1 exp(−αxβ), 0 ≤ x < +∞; α, β ∈ IR+ 0 altrove. (2.57) Utilizzando la definizione della funzione Gamma (2.34), si può ricavare che il valore atteso e la varianza di fX(x) valgono: E{X} = 1 αβ Γ(1 + 1/β), σ2X = α −2/β [Γ(1 + 2/β) − Γ2(1 + 1/β)]. Al pari della distribuzione Beta, la disponibilità di due parametri α, β rende questa legge assai adatta a rappresentare il modello probabilistico di certe grandezze che possono assumere valori casuali sull’intero semiasse positivo. Il parametro β > 0 è il più significativo, e definisce la forma della distribuzione di Weibull. Se 0 < β < 1, fX(x) ha un asintoto verticale x = 0; se β = 1 la distribuzione coincide con quella esponenziale con parametro λ = α; e se β > 1, fX(x) si annulla per x → 0+ e presenta un massimo per x = ( β − 1 αβ )1/β . Il parametro α > 0 è un fattore di scala che concentra su bassi valori di x (oppure disperde sul semiasse positivo) le masse di probabilità della distribuzione stessa, come è illustrato in Fig. 2.16. Questa distribuzione ha un ruolo importante negli studi di affidabilità di materiali o di sistemi per i quali si assume che il tasso di guasto non sia costante (come è stato fatto a proposito della distribuzione esponenziale), ma sia una assegnata funzione λ(t) = αβ(αt)β−1 45 del tempo di attesa t del guasto. In tal caso, individuati i parametri α e β, l’affidabilità del materiale diventa la seguente funzione del tempo di attesa: R(t) = 1 − FX(t) = e−αt β dove FX(x) è la funzione di distribuzione cumulata di W (α, β), ossia la primitiva di fX(x) che si annulla per x = 0. Se la variabile casuale può assumere soltanto valori nell‘intervallo γ ≤ x < +∞ con γ > 0, il semplice cambio di variabile y = x − γ porta alla definizione di una dis- tribuzione di Weibull W (α, β, γ) dipendente da tre parametri α, β, γ, avente densità fX(x) = αβ(x − γ)β−1 exp[−α(x − γ)β ], γ ≤ x < +∞; α, β, γ ∈ IR+ con valor medio traslato della quantità γ e la stessa varianza di W (α, β). 46
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved