Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Riassunti Introduzione all'econometria quarta edizione W. Watson, James H. Stock, Sintesi del corso di Econometria

riassunti del libro introduzione all'econometria.

Tipologia: Sintesi del corso

2019/2020

Caricato il 31/05/2020

alessandro-bronzini
alessandro-bronzini 🇮🇹

4.3

(22)

4 documenti

1 / 45

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Riassunti Introduzione all'econometria quarta edizione W. Watson, James H. Stock e più Sintesi del corso in PDF di Econometria solo su Docsity! CAPITOLO 1 DOMANDE ECONOMICHE E RICHIAMI 1.1 Domande economiche esaminate Molte delle decisioni economiche sono dipendenti dalle relazioni che sussistono tra le variabili. Alcuni esempi di domande economiche che vengono affrontate nella nostra realtà sono: ridurre la dimensione delle classi migliora il livello di istruzione? Vi è discriminazione razziale nel mercato dei prestiti per abitazioni? Di quanto riducono il fumo le imposte sulle sigarette? Di quanto aumenterà il PIL degli Stati Uniti il prossimo anno? Queste sono tutte domande a cui si richiede una risposta numerica, che però può essere ricavato solo empiricamente, dunque serve che vengano effettuati degli esperimenti ideali. 1.2 Effetti casuali ed esperimenti ideali Il modo migliore per stimare gli effetti casuali è quello di effettuare un esperimento controllato, che pone le condizioni migliori affinché le variabili siano stimabili nel modo più efficace possibile. L'effetto casuale si definisce come l'effetto sul risultato di una data azione o trattamento, così come misurato in un esperimento controllato casualizzato. 1.3 Dati: fonti e tipi Abbiamo diverse forme di dati che comportano diversi tipi di studi:  Dati sezionali: sono dati su entità osservati per un solo periodo  Serie temporali: sono dati per una singola unità raccolti in momenti diversi  Dati panel: detti anche dati longitudinali, sono dati che riguardano più unità statistiche ognuna delle quali è osservata in due o più periodi CAPITOLO 2 RICHIAMI DI PROBABILITÀ 2.1 Variabili casuali e distribuzioni di proprietà Probabilità e risultati: Gli esiti potenziali di un processo casuale sono chiamati risultati, mentre la probabilità di un risultato è la proporzione di volte che quel risultato si verifica nel lungo periodo. Spazio campionario ed eventi: L'insieme di tutti i possibili risultati di un processo casuale. Variabili casuali: Una variabile casuale è una sintesi numerica di un risultato casuale. Distribuzione di probabilità: la distribuzione di probabilità di una variabile casuale discreta è l'elenco di tutti i possibili valori della variabile e delle probabilità con cui ciascuno di essi si verifica. Queste probabilità sommano ad uno. Funzione di ripartizione: La distribuzione di probabilità cumulata è la probabilità che una variabile casuale sia minore o uguale a un particolare valore Distribuzione di Bernoulli: è la distribuzione di una variabile che può assumere solo due risultati che convenzionalmente sono zero ed uno. Funzione di ripartizione: è la probabilità che la variabile sia minore o uguale a un certo valore. Funzione di densità di probabilità: L'area sottostante la funzione di densità di probabilità tra due punti qualsiasi rappresenta la probabilità che la variabile casuale cada tra quei due punti. 2.2 Valore atteso, media e varianza Valore atteso: Il valore atteso di una variabile casuale Y è il suo valore medio calcolato sulla base di un numero elevato di prove ripetute. Il valore atteso di una variabile bernoulli è la probabilità che quella variabile assuma il valore 1. Varianza: la varianza di una variabile casuale Y, è il valore atteso del quadrato della deviazione di Y dalla sua media. La varianza di una variabile bernoulli è p(1-p). Media: La media è la somma di tutti i risultati diviso il numero di osservazioni del processo casuale. 2.3 Variabili casuali doppie Distribuzione congiunta: La distribuzione di probabilità di due variabili casuali discrete, fornisce la probabilità che tali variabili assumano simultaneamente certi valori. La somma delle probabilità è 1. Distribuzione di probabilità marginale: La distribuzione di probabilità marginale di una variabile casuale Y indica la sua distribuzione di probabilità. Distribuzione condizionata: La distribuzione di una variabile casuale Y condizionatamente al fatto che un'altra variabile casuale X assuma uno specifico valore è detta distribuzione condizionata di Y data X. Aspettativa condizionata: L'aspettativa condizionata di Y data X è la media della distribuzione condizionata di Y data X. Legge delle aspettative iterate: E(Y) = E[E(Y|X)] Varianza condizionata: La varianza di Y condizionata a X è la varianza della distribuzione condizionata di Y data X. Indipendenza: Due variabili casuali X e Y sono indipendentemente distribuite o indipendenti se conoscere il valore di una di esse non fornisce alcuna informazione circa l'altra. Covarianza: La covarianza tra X e Y è una misura dell'intensità con la quale due variabili casuali si muovono insieme. Correlazione: La correlazione è una misura tra -1 e 1 che indica la dipendenza di due variabili tra di loro. Correlazione e media condizionata: Se la media condizionata di Y non dipende da X allora Y e X sono incorrelate. Media e varianza di somme di variabili casuali: La media della somma di due variabili casuali X e Y è la somma delle loro medie. 2.4 Distribuzioni normale, chi-quadrato, ti di student e F Distribuzione normale: Una variabile casuale continua con una distribuzione normale ha una densità di probabilità con la forma a campana. La distribuzione normale standard è la distribuzione a media zero e varianza 1. per determinare le probabilità nel caso di una variabile normale con media e varianza generiche, è necessario standardizzarle sottraendo prima la media e dividendo poi il risultato per la deviazione standard. Distribuzione normale multivariata: La distribuzione normale può essere generalizzata per descrivere la distribuzione congiunta di un gruppo di variabili casuali. In questo caso si parla di distribuzione normale multivariata o se abbiamo solo due variabili si parla di distribuzione normale bivariata. Distribuzione chi-quadrato: La distribuzione chi-quadrato è la distribuzione della somma dei quadrati di m variabili casuali indipendenti ognuna con una distribuzione normale standard. Distribuzione t di Student: La distribuzione t di Student con m gradi di libertà è la distribuzione del rapporto di due variabili casuali indipendenti, la prima delle quali è normale standard e l'altra è la radice quadrata di una variabile casuale chi-quadrato con m gradi di libertà divisa per m. Distribuzione F: Si definisce distribuzione F con m gradi di libertà, la distribuzione del rapporto di una variabile casuale chi-quadrato con m gradi di libertà, divisa per m, con una variabile casuale chi-quadrato indipendentemente distribuita con n gradi di libertà, divisa per n. 2.5 Campionamento casuale e distribuzione della media campionaria Campionamento casuale semplice: Nel campionamento casuale semplice si hanno n soggetti scelti a caso da una popolazione e ogni membro della popolazione ha la stessa probabilità di essere incluso nel campione. Estrazioni i.i.d. : Quando le Y sono estratte dalla stessa distribuzione e sono indipendentemente distribuite, si dice che sono indipendentemente e identicamente distribuite o i.i.d. Media campionaria: La media campionaria è dato da 1 su n per la sommatoria delle osservazioni di Y. Distribuzione campionaria: distribuzione di probabilità associata ai possibili valori di Y che possono essere calcolati per diversi campioni possibili di Y. 2.6 Approssimazione alla distribuzione campionaria per grandi campioni La probabilità prefissata che µy appartenga a questo insieme è detto livello di confidenza. LA regione di confidenza è un intervallo, dunque viene chiamato intervallo di confidenza. Probabilità di copertura: La probabilità di copertura di un intervallo di confidenza per la media della popolazione è la probabilità, calcolata su tutti i campioni casuali possibili, che esso contenga la vera media della popolazione. 3.4 Confronto tra medie di popolazioni diverse Test d'ipotesi per la differenza tra due medie Consideriamo l'ipotesi nulla che le retribuzioni di queste due popolazioni differiscano mediamente di un certo ammontare, diciamo do. Allora l'ipotesi nulla e l'ipotesi alternativa bilaterale sono Hoσy:μym−μyw=doσy coσyntroσy H1 : μym−μyw≠doσy L'errore standard di Y̿m−Y̿w è: SE( y ̿m−Y̿w)= s2mnm+s2wnw .−−−−−−−−−−−√ La statistica t per l'ipotesi nulla è costruita analogamente alla statistica t per un'ipotesi riguardante la media di una singola popolazione e dividendo il risultato per l'errore standard di Y̿m−Y̿w: t= (Y̿m−Y̿w) −doσySE(Y̿m−Y̿w) Intervalli di confidenza per la differenza tra le medie di due popolazioni L'intervallo di confidenza al 95% per d= μym−μywè: ( Y ̿m− Y ̿w) ±1,96 SE (Y ̿m−Y ̿w) 3.5 Stima degli effetti casuali con differenza tra medie usando dati sperimentali L'effetto casuale come differenza delle attese condizionate L'effetto casuale di un trattamento è l'effetto atteso del trattamento su una variabile d'interesse, cos ì come misurato in un ideale esperimento controllato casualizzato. L'effetto casuale su Y del livello di trattamento x è la differenza delle aspettativa condizionale E(Y|X ≡x) - E(Y|X ≡O). In ambito sperimentale, l'effetto casuale è anche detto effetto del trattamento. Se esistono solo due livelli di trattamento allora possiamo indicare con X=O il gruppo di controllo e con X=1 il gruppo di trattamento. Se il trattamento è binario allora l'effetto casuale è E(Y|X=1) - E(Y|X=0) in un ideale esperimento controllato casualizzato. Stima dell'effetto casuale usando la differenza tra due medie Se il trattamento in un esperimento controllato casualizzato è binario, allora l'effetto casuale può essere stimato attraverso la differenza tra le medie campionarie dei gruppi di trattamento e di controllo. Un esperimento ben progettato e ben condotto può fornire una stima convincente di un effetto casuale. Per questa ragione gli esperimenti controllati casualizzati sono di impiego comuni in alcuni campi, come la medicina 3.6 Utilizzo della statistica t in piccoli campioni In piccoli campioni, la distribuzione normale standard può fornire una cattiva approssimazione alla distribuzione della statistica t. La statistica t e la distribuzione t di Student La statistica t per la verifica di ipotesi circa la media: t= Y̿−μyy,oσyS2yn/−−−−√. Abbiamo un caso particolare quando Y si distribuisce normalmente, allora la statistica t ha una distribuzione t di student con n-1 gradi di libertà. La statistica t per la verifica di ipotesi circa la differenza tra medie La statistica t per la verifica di ipotesi circa la differenza tra due medie, non ha una distribuzione t di Student, anche se la distribuzione di Y nella popolazione è normale. Lo stimatore della varianza aggregata è: s2poσyoσyled=1nm+ nw−2⎡⎣∑nmi=1(Yi−Y ̿m)2+∑nwi=1(Yi−Y ̿w)2⎤⎦ Lo svantaggio di usare questo stimatore è che esso è valido solo se le varianza delle due popolazioni sono identiche. Uso della distribuzione t di Student in pratica Per sottoporre a verifica ipotesi circa la media di Y, si utilizza la distribuzione t di student se la distribuzione sottostante è normale. Per le variabili economiche però la distribuzione normale è l'eccezione. Sebbene la distribuzione t di student sia raramente applicabile in economia, alcuni software la usano per calcolare i valori-p e gli intervalli di confidenza. 3.7 Diagrammi a nuvola di punti, covarianza e correlazione campionarie Diagrammi a nuvola di punti Un diagramma a nuvola di punti detto anche diagramma a nuvola, è un grafico delle n osservazioni su Xi e Yi , nel quale ciascuna osservazione è rappresentata dal punto (X,Y). Covarianza e correlazione campionaria La covarianza campionaria è: sxy=1n−1∑ni=1(Xi −X ̿)(Yi−Y̿). Il coefficiente di correlazione campionaria o correlazione campionaria è: rxy=sxysxsy. Questo rapporto indica la forza dell'associazione lineare esistente tra X e Y in un campione di osservazioni. La correlazione campionaria è uguale a 1 se Xi=Yi per ogni i ed è uguale a -1 se Xi=−Yiper oσygni i. Consistenza della covarianza e della correlazione campionarie La covarianza campionaria è resistente ovvero: sxy→σyxy. In grandi campioσyni, la coσyvarianza campioσynaria è coσyn alta proσybabilità vicina alla coσyvarianza n ella poσypoσylazioσyne. Poiché la varianza campionaria e la covarianza campionaria sono consistenti, anche il coefficiente di correlazione è consistente, ovvero: rxy→coσyrr(Xi , Yi). CAPITOLO 4 Regressione lineare con un singolo regressore 4.1 Il modello di regressione lineare Yi=β0+β1X1+ui Questa espressione è il modello di regressione lineare con un singolo regressore, in cui Y è la variabile dipendente e X è la variabile indipendente o regressore. β0+β1X1 è la retta di regressioσyne della poσypoσylazioσyne oσy funzioσyne di regressioσyne della poσypoσylazioσy ne. L'intercetta β0 è il valoσyre della regressioσyne quandoσy X è uguale a zeroσy , mentre β1 è la pendenza, ovvero la variazione di Y associata a una variazione unitaria di X. Il termine u è l'errore o disturbo, che incorpora tutti i fattori responsabili della differenza tra il punteggio medio nei tt per l'i-esimo distretto e il valore predetto della retta di regressione. Sono tutti i valori non calcolabili. Un esempio di applicazione per questo modello è uno studio che deve decidere se accrescere il numero di insegnanti aiuta i risultati di test scolastici. 4.2 Stima dei coefficienti del modello di regressione lineare Nella pratica, L'intercetta e la pendenza della retta di regressione della popolazione sono ignote, di conseguenza dobbiamo usare dei dati per stimarle. Questo è un problema già affrontato in statistica, ad esempio lo stimatore naturale dell'ignota retribuzione media delle donne laureate nella popolazione è la retribuzione media delle donne laureate nel campione. Lo stimatore dei minimi quadrati Lo stimatore OLS sceglie i coefficienti di regressione in modo che la retta di regressione sia il più possibile vicina ai dati osservati , dove la vicinanza è misurata dalla somma dei quadrati degli errori commessi nel predire Y utilizzando l'informazione in X. Lo stimatore OLS si estende dunque al modello di regressione lineare: ∑ni=1(Yi−b0−b1X1)2 La somma degli errori quadratici per il modello di regressione lineare è la generalizzazione della somma degli errori quadratici per il problema della stima della media. Gli stimatori dell'intercetta e della pendenza che minimizzano la somma dei quadrati degli errori sono detti stimatori dei minimi quadrati ordinari di β1 e β0. La retta di regressione OLS è la retta costruita usando gli stimatori OLS: βˆ0+βˆ1. Il valore predetto di Yi data Xi, basato sulla retta di regressione OLS è Yˆ= βˆ0+βˆ1X. hanno medie pari a β0 e β1 . sono le assunzioni dei minimi quadrati: E( βˆ0)=βoσy e E(βˆ1)=β1. Dunque βˆ0 e βˆ1 sono stimatori non distorti di βoσy e β1. Se il campione è sufficientemente numeroso, per il teorema limite centrale la distribuzione campionaria di βˆ0 e βˆ1 è bene approσyssimata dalla distribuzioσyne noσyrmale bivariata. Dunque questo implica che le distribuzioni marginali di βˆ0 e βˆ1 siano normali in grandi campioni. Più piccola è la varianza dell'errore ui, più piccola è la varianza di β1. L'approssimazione normale alla distribuzione campionaria di βˆ0 e βˆ1 è uno strumento potente, con cui possiamo sviluppare metodi per fare inferenza sui veri valori dei coefficienti di regressione nella popolazione usando solo un campione di dati. CAPITOLO 5 Regressione con un singolo regressore: verifica di ipotesi e intervalli di confidenza 5.1 Verifica di ipotesi su un singolo coefficiente di regressione Prendiamo il caso delle classi e del loro ridimensionamento. Uno dei contribuenti sostiene che non questo metodo non porta ad alcun effetto positivo ma solo spreco di denaro. Questo può essere riformulato in termini di analisi di regressione. Il contribuente sostiene che la retta di regressione relativa alla popolazione è orizzontale e che βClassSize è pari a zero. Quindi viene discussa la verifica dell'ipotesi riguardanti la pendenza β1 o l'intercetta βoσy. Ipotesi bilaterali su β1 L'approccio generale alla verifica di ipotesi circa i coefficiente di regressione è lo stesso della verifica di ipotesi circa la media della popolazione. Verifica di ipotesi circa la media della popolazione L'ipotesi nulla che la media di Y assuma un valore specifico μyY,O può essere espressa coσyme HO:E(Y)=μyY,O e l′alternativa ipoσytesi coσyme H1:E(Y)≠μyY,O La verifica dell'ipotesi nulla Ho richiede i seguenti tre passi: calcolo dell'errore standard di Y̿ , calcolo della statistica t, calcolare il valore-p (la probabilità di ottenere per effetto delle variazioni dovute al campionamento casuale, una statistica che è diversa dall'ipotesi nulla almeno quanto la statistica realmente osservata). Verifica di ipotesi circa la pendenza β1 A livello teorico, l'elemento critico che giustifica la precedente procedura per la verifica di ipotesi relative alla media della popolazione è il fatto che, la distribuzione campionaria di Y̿ è approssimativamente normale. L'ipotesi nulla e quella alternativa debbono essere formulate con precisione prima di essere sottoposte a verifica. L'ipotesi del contribuente è che βClassSize=0. Sotto l'ipotesi nulla la pendenza della popolazione β1 assume un valore specifico β1,0 . Allora l'ipotesi nulla e l'ipotesi alternativa bilaterale sono: HO:β1= β1,O coσyntroσy H1: β1≠ β1,O. Il primo passo è calcolare l'errore standard di βˆ1: σyˆβ1=1n X 1n−2∑ni=1(Xi−X ̿)2Ui2⎡⎣⎢⎢⎢1n∑ni=1(Xi−X ̿)2⎤⎦^2 Il secondo paso consiste nel calcolare la statistica t: t= βˆ1−βˆ1,OSE(βˆ1) Il terzo passo consiste nel calcolare il valore-p: Valore-p=Pr Hoσy⎡⎣⎢∣∣∣∣∣βˆ1−β1,oσySE(βˆ1)∣∣∣∣∣>∣∣∣∣∣βˆ1act−β1,oσySE(βˆ1)∣∣∣∣∣⎤⎦⎥=PrHoσy(|t|>∣∣tact∣∣) Un valore-p inferiore al 5% fornisce evidenza sfavorevole all'ipotesi nulla. In alterativa, l'ipotesi nulla può essere verificata al livello di significatività del 5% semplicemente confrontando il valore assoluto della statistica t con 1,96 che è il valore critico di un test bilaterale, e rifiutando l'ipotesi nulla se | tact∣∣ >1,96. Presentazione delle equazioni di regressione e applicazione ai punteggi ottenuti La regressione OLS del punteggio ottenuto nel test sul rapporto studenti/insegnanti, ha prodotto βˆoσy =698,9 e βˆ1 =-2,28. Gli errori standard di queste stime sono SE( βˆoσy) =10,4 e SE( βˆ1) =0,52. Data l'importanza degli errori standard, per convenzione essi sono inclusi quando si riportano i coefficienti OLS stimati. Se si vuol verificare a un livello di significatività del 5%, l'ipotesi nulla che la pendenza βˆ1 sia pari a zero nell'equivalente, allora si costruisce a questo scopo la statistica t e la si confronta con 1,96. La statistica t nell'esempio considerato è maggiore del valore critico bilaterale di 1,96, infatti è pari a -4,38, dunque si rifiuta l'ipotesi nulla in favore dell'alternativa bilaterale al livello di significatività del 5%. Alternativamente possiamo calcolare il valore di t che è pari a -4,38. Questa probabilità è l'area nelle code della densità normale standardizzata ed è estremamente piccola, circa 0,0001%. Dunque significa che se l'ipotesi nulla fosse vera, la probabilità di ottenere un valore di βˆ1 lontano dall'ipotesi nulla sarebbe estremamente piccola, dunque si può concludere che l'ipotesi nulla è falsa. Ipotesi unilaterali riguardanti β1. Fino ad ora abbiamo analizzato il caso di un test bilaterale. Talvolta però è appropriato usare un test unilaterale, dove abbiamo l'ipotesi nulla per cui β1 =0 contro l'alternativa unilaterale β1 <0. Per un test unilaterale, l'ipotesi nulla e l'ipotesi alternativa unilaterale sono: Hoσy: β1= β1,oσy coσyntroσy H1: β1<β1,oσy. Quando usare un test unilaterale? Le alternative unilaterali dovrebbero essere usate solo quando esiste una ragione chiara per farlo. Questa ragione potrebbe venire dalla teoria economica, da un'evidenza empirica preliminare o entrambe. Un'applicazione al punteggio nei test La statistica t per verificare l'inefficacia della dimensione delle classi sul punteggio ottenuto nei test è tact= -4,38. Questo valore è inferiore a -2,33 che è il valore critico di un test unilaterae con livello di significativtà 1%, e quindi si rifiuta l'ipotesi nulla a favore dell'alternativa al livello dell'1%. Verifica di ipotesi riguardanti l'intercetta βoσy L'approccio generale utilizzato per verificare questo tipo di ipotesi nulla consiste dei tre passi. Se l'alternativa è unilaterale, questo approccio si modifica nel modo discusso precedentemente con riferimento a ipotesi riguardanti la pendenza. I test d'ipotesi sono utili se si ha in mente una specifica ipotesi nulla. 5.2 Intervalli di confidenza per un coefficiente di regressione Poiché ogni stima statistica della pendenza β1 è necessariamente soggetta a incertezza campionaria, non possiamo determinare esattamente quale sia il vero valore di β1 da un campione di dati. È possibile però usare lo stimatore OLS e il suo errore standard per costruire intervalli di confidenza per la pendenza β1 o l'intercetta βoσy . Intervalli di confidenza per 𝛃1 Il teorema di Gauss-Markov ha due limiti importanti: le sue condizioni potrebbero non valere e anche se valessero, ci sono stimatori alternativi che non sono lineare e condizionatamente non distorti pi efficienti degli OLS. Stimatori di regressione diversi dagli OLS Lo stimatore dei minimi quadrati ponderati Se gli errori sono eteroschedastici, allora gli OLS non sono più BLUE. Se la natura dell'eteroschedasticità è nota, allora è possibile costruire uno stimatore che ha varianza minore rispetto allo stimatore OLS Questo modo, detto dei minimi quadrati ponderati, pesa l'osservazione i-esima con l'inverso della radice quadrata della varianza condizionata di ui dalla Xi. Grazie a questi pesi, gli errori della regressione ponderata sono omoschedastici, e così gli OLS sono BLUE. Lo stimatore delle minime deviazioni assolute Lo stimatore OLS può essere sensibile agli outlier. Se outlier estremi non sono rari, allora altri stimatori possono essere più efficienti degli OLS e possono produrre inferenza più affidabili. Uno di questi è lo stimatore LAD (Lead Absolute Deviations), ottenuto risolvendo un problema di minimizzazione. In molti dati economici, outlier estremi sono rari, quindi l'uso dello stimatore LAD non è comune. 5.6 Uso della statistica t nella regressione quando il campione è piccolo La statistica t e la distribuzione t di student Se la statistica t è costruita usando la formula per l'errore standard aggregato, allora la statistica t ha una distribuzione t di student. Uso della distribuzione t di student in pratica Se gli errori di regressione sono omoschedastici e si distribuiscono normalmente, e se si usa la statistica t classica, allora i valori critici dovrebbero basarsi sulla distribuzione t di Student. La distinzione fra distribuzione t di student e distribuzione normale è rilevante solo se il campione è piccolo, perché è trascurabile se n è moderato o grande. Raramente c'è motivo di credere che gli errori siano omoschedastici e si distribuiscano normalmente nelle applicazione econometri che CAPITOLO 6 Regressione lineare con regressori multipli 6.1 La distorsione di variabili omesse Portando l'attenzione sullo studio del rapporto studenti/insegnanti, l'analisi con un singolo regressione ha ignorato alcuni fattori molto importanti, come ad esempio la percentuale di studenti non di madrelingua inglese ne distretto, lo stimatore OLS della pendenza della regressione sul rapporto studenti/insegnanti potrebbe essere distorto. Poiché il rapporto di studenti non di madrelingua inglese sono correlati, è possibile che il coefficiente OLS nella regressione del punteggio nei test sul rapporto studenti/insegnanti rifletta tale influenza. Definizione di distorsione da variabili omesse Se il regressore è correlato con una variabile omessa dall'analisi ma che determina, la variabile dipendente lo stimatore OLS subirà una distorsione da variabile omessa. La distorsione avviene quando valgono due condizioni: la variabile omessa è correlata con il regressore incluso; la variabile omessa contribuisce a determinare la variabile dipendente. La distorsione da variabili omesse e la prima ipotesi dei minimi quadrati Distorsione da variabili omesse è dovuta al venir meno della prima ipotesi dei minimi quadrati E(ui|Xi). Per comprenderne il motivo, nel modello di regressione con un singolo regressore rappresenta tutti gli altri fattori, oltre a Xi, che contribuiscono a determinare Yi. Questa distorsione non scompare in grandi campioni. Una formula per la distorsione da variabili omesse La distorsione del paragrafo precedente relativa alla distorsione da variabili omesse può essere sintetizzata matematicamente da una formula. infatti al crescere della dimensione campionaria, βˆ1 è prossimo a β1 + pxuσyuσyx con probabilità sempre più elevata βˆ1→ β1 + pxuσyuσyx La β1 non è la pendenza del modello di regressione la sua interpretazione cambia, distorsione β1 non è la pendenza del modello di regressione la sua interpretazione cambia, da β1 non è la pendenza del modello di regressione la sua interpretazione cambia, variabili β1 non è la pendenza del modello di regressione la sua interpretazione cambia, omesse β1 non è la pendenza del modello di regressione la sua interpretazione cambia, è β1 non è la pendenza del modello di regressione la sua interpretazione cambia, un β1 non è la pendenza del modello di regressione la sua interpretazione cambia, problema β1 non è la pendenza del modello di regressione la sua interpretazione cambia, sia β1 non è la pendenza del modello di regressione la sua interpretazione cambia, per β1 non è la pendenza del modello di regressione la sua interpretazione cambia, grandi β1 non è la pendenza del modello di regressione la sua interpretazione cambia, sia β1 non è la pendenza del modello di regressione la sua interpretazione cambia, per β1 non è la pendenza del modello di regressione la sua interpretazione cambia, piccoli β1 non è la pendenza del modello di regressione la sua interpretazione cambia, campioni. β1 non è la pendenza del modello di regressione la sua interpretazione cambia, L'entità β1 non è la pendenza del modello di regressione la sua interpretazione cambia, di β1 non è la pendenza del modello di regressione la sua interpretazione cambia, questa β1 non è la pendenza del modello di regressione la sua interpretazione cambia, distorsione β1 non è la pendenza del modello di regressione la sua interpretazione cambia, dipende β1 non è la pendenza del modello di regressione la sua interpretazione cambia, dalla β1 non è la pendenza del modello di regressione la sua interpretazione cambia, correlazione β1 non è la pendenza del modello di regressione la sua interpretazione cambia, pxu tra β1 non è la pendenza del modello di regressione la sua interpretazione cambia, il β1 non è la pendenza del modello di regressione la sua interpretazione cambia, regressore β1 non è la pendenza del modello di regressione la sua interpretazione cambia, e β1 non è la pendenza del modello di regressione la sua interpretazione cambia, l'errore. β1 non è la pendenza del modello di regressione la sua interpretazione cambia, Maggiore β1 non è la pendenza del modello di regressione la sua interpretazione cambia, è |pxu| β1 non è la pendenza del modello di regressione la sua interpretazione cambia, , β1 non è la pendenza del modello di regressione la sua interpretazione cambia, maggiore β1 non è la pendenza del modello di regressione la sua interpretazione cambia, è β1 non è la pendenza del modello di regressione la sua interpretazione cambia, la β1 non è la pendenza del modello di regressione la sua interpretazione cambia, distorsione β1 non è la pendenza del modello di regressione la sua interpretazione cambia, Il β1 non è la pendenza del modello di regressione la sua interpretazione cambia, segno β1 non è la pendenza del modello di regressione la sua interpretazione cambia, della β1 non è la pendenza del modello di regressione la sua interpretazione cambia, distorsione β1 non è la pendenza del modello di regressione la sua interpretazione cambia, di βˆ1 , β1 non è la pendenza del modello di regressione la sua interpretazione cambia, dipende β1 non è la pendenza del modello di regressione la sua interpretazione cambia, dal β1 non è la pendenza del modello di regressione la sua interpretazione cambia, fatto β1 non è la pendenza del modello di regressione la sua interpretazione cambia, che β1 non è la pendenza del modello di regressione la sua interpretazione cambia, X β1 non è la pendenza del modello di regressione la sua interpretazione cambia, e β1 non è la pendenza del modello di regressione la sua interpretazione cambia, u β1 non è la pendenza del modello di regressione la sua interpretazione cambia, siano β1 non è la pendenza del modello di regressione la sua interpretazione cambia, positivamente β1 non è la pendenza del modello di regressione la sua interpretazione cambia, o β1 non è la pendenza del modello di regressione la sua interpretazione cambia, negativamente β1 non è la pendenza del modello di regressione la sua interpretazione cambia, correlati. β1 non è la pendenza del modello di regressione la sua interpretazione cambia, Affrontare la distorsione da variabili omesse dividendo i dati in gruppi Dividendo i dati in gruppi, possiamo notare che se si distinguono i quartili della percentuale di studenti non di madrelingua, la seconda parte della tabella (vedi libro) fornisce un'analisi migliore rispetto alla semplice differenza tra le medie della prima riga, Però non fornisce al provveditore una stima utile dell'effetto sui punteggi della variazione nella dimensione delle classi, tenendo costante la frazione di studenti non di madrelingua. 6.2 Il modello di regressione multipla Il modello di regressione multipla estende il modello di regressione con una singola variabile, includendo come regressori una serie di variabili addizionali. Questo modello permette di stimare l'effetto su Yi di una variazione in un regressore tenendo costanti gli altri. La retta di regressione per una popolazione Si supponga per il momento che ci siano soltanto due variabili dipendenti. Nel modello di regressione lineare multipla, la relazione tra queste due variabili indipendenti e la variabile dipendente Y è data dalla funzione lineare E(Yi|X1i = x1, X2i = x2) = βoσy + β1x1 + β2x2 Dove è la media condizionata a Xi1 = x1 e Xi2 = x2. Se il rapporto studenti/insegnanti nell'i-esimo distretto è uguale a un certo valore x1 e la percentuale di studenti non di madrelingua inglese nell'iesimo distretto è uguale a x2, allora il valore atteso di Yi dato il rapporto studenti/insegnanti e la percentuale di studenti non di madrelingua inglese è fornito dalla faunzione lineare mostrato sopra. Il coefficiente βoσy è l'intercetta. Il coefficiente β1 è il coefficiente associato a X1i mentre il coefficiente β2 è il coefficiente associato a X2i. Possiamo scrivere la funzione di regressione in questo modo: Y = βoσy + β1X1 + β2X2 Se facciamo variare X1 di un ammontare pari a Δx=[X, il nuovo valore sarà: Y+Δx=[Y = βoσy + β1(X1 +Δx=[X)+ β2X2 Dunque abbiamo: β1=ΔYΔX1 , tenendo costante X2. Il modello di regressione multipla per una popolazione La retta di regressione è la relazione tra Y e X1 e X2 che vale in media nella popolazione. Similmente al caso della regressione con un singolo regressore, i fattori che determinano Y, oltre a X2i, sono incorporati nell'errore u. Questo è la deviazione di una particolare osservazione della relazione che esprime la media della popolazione. Di conseguenza, otteniamo: Y = βoσy + β1X1 + Questa assunzione elimina una situazione poco gradevole, nella quale è impossibile calcolare lo stimatore OLS: si dice che i regressori hanno collinearità perfetta se uno dei regressori è funzione lineare esatta degli altri. Rende impossibile il calcolo dello stimatore OLS perché rende i divisori che servono per il calcolo dello stimatore. 6.6. La distribuzione degli stimatori OLS nella regressione multipla Poiché i dati differiscono da un campiona a un altro, campioni differenti producono valori diversi degli stimatori OLS. Questa variazione tra possibili campioni genera l'incertezza associata con gli stimatori OLS dei coefficienti di regressione βo,β1,…,βk. Sotto le assunzioni dei minimi quadrati riportate sora, gli stimatori OLS sono stimatori non distorti e consistenti di βo,β1,…,βk del modello di regressione lineare multipla. Il teorema limite centrale si applica agli stimatori OLS nel modello di regressione multipla per la stessa ragione per cui si applica alla media campionaria Y− e agli stimatori OLS quando c'è un singolo regressore: gli stimatori OLS sono medie di dati campionati casualmente e se la dimensione campionaria è sufficientemente elevata, la distribuzione campionaria diventa normale. 6.7 Collinearità La collinearità perfetta sorge quando uno dei regressori è una combinazione lineare perfetta degli altri regressori. La collinearità imperfetta sorge invece quando uno dei regressori è altamente correlato con gli altri regressori. Questo non impedisce la stima della regressione. Essa implica che uno o più coefficienti di regressione possono essere stimati in modo imperfetto. La trappola delle variabili dummy Un'altra possibile fonte di collinearità perfetta sorge quando il modello include come regressori una molteplicità di variabili binarie, o dummy. Ad esempio nello studio del rapporto studenti/insegnanti se aggiungiamo le variabili rurale, suburbano e urbano, se vengono aggiunte tutte e tre nella regressione insieme a una costante, i regressori sono perfettamente collineari: poiché ogni distretto appartiene a una e una sola categoria, dove Xi è il regressore. In generale, se ci sono G variabili binari, se ogni osservazione rientra in una e una sola categoria, se c'è un'intercetta nella regressione e se tutte le variabili binarie G sono incluse come regressori, allora la regressione soffrirà di collinearità perfetta. Questa situaione si chiama trappola delle variabili dummy e per evitare questo basta escludere una delle variabili binarie. Soluzioni alla collinearità perfetta La collinearità perfetta si verifica tipicamente quando è stato commesso un errore nella specificità della regressione. Quando il pacchetto statistico segnala che vi è collinearità perfetta, per eliminarla è importante modificare la regressione. Alcuni pacchetti sono inaffidabili nel caso di collinearità perfetta. Collinearità imperfetta Collinearità imperfetta significa che due o più regressori sono altamente correlati, nel senso che esiste una funzione lineare dei regressori che è altamente correlata con un altro regressore. Se i regressori sono imperfettamente collineari, allora i coefficienti di almeno uno di essi saranno stimati in modo impreciso. La collinearità perfetta è un problema che spesso segnala la presenza di un errore logico. AL contrario, la collinearità imperfetta non è necessariamente un errore, ma solo una caratteristica degli OLS, dei dati e delle domanda a cui si sta cercando di rispondere. CAPITOLO 7 Verifica di ipotesi e intervalli di confidenza nella regressione multipla 7.1 Verifica di ipotesi e intervalli di confidenza per un singolo coefficiente Gli errori standard degli stimatori OLS Nel caso di un singolo regressore, è stato possibile stimare la varianza degli strumenti OLS sostituendo le medie campionarie alle aspettative, la legge dei grandi numeri implica che queste medie campionarie convergano alle corrispondenti medie della popolazione. Tutto ciò si estende anche alla regressione multipla. Lo stimatore OLS del j-esimo coefficiente βˆ1 ha una deviazione standard, che è stimata tramite il suo errore standard SE( βˆ1) . La verifica di ipotesi per un singolo coefficiente Vogliamo verificare l'ipotesi che il vero coefficiente βj del j-esimo regressore assuma un valore specifico βj,oσy . Il valore dell'ipotesi nulla βj,oσy deriva dalla teoria economica, oppure dal contesto decisionale a cui si riferisce l'applicazione. Se l'ipotesi alternativa è bilaterale, allora le due ipotesi possono essere espresse matematicamente come: Hoσy : βj = βj,oσy β1 non è la pendenza del modello di regressione la sua interpretazione cambia, contro β1 non è la pendenza del modello di regressione la sua interpretazione cambia, H1 β1 non è la pendenza del modello di regressione la sua interpretazione cambia, : β1 non è la pendenza del modello di regressione la sua interpretazione cambia, βj β1 non è la pendenza del modello di regressione la sua interpretazione cambia, ≠ β1 non è la pendenza del modello di regressione la sua interpretazione cambia, βj,oσy Se il primo regressore è STR, allora l'ipotesi nulla che una variazione nel rapporto studenti/insegnanti non abbia alcun effetto sulla dimensione delle classi corrisponde all'ipotesi nulla che β1 =0. Il primo passo di questa procedura è quello di calcolare l'errore standard del coefficiente, il secondo passo è quello di calcolare la statistica t usando la formula generale, mentre il terzo passo è quello di calcolare il valore- del test. Il fondamento teorico di questa procedura è il fatto che, in grandi campioni, lo stimatore OLS ha una distribuzione normale la cui media, sotto l'ipotesi nulla è pari al valore ipotizzato, e la cui varianza può essere stimata in modo consistente. Questo fondamento teorico è presente anche nel caso della regressione multipla. La procedura da eseguire nella regressione multipla è la seguente: calcola l'errore standard di βj ; calcola la statistica t ed infine calcola il valore del valore-p. Intervalli di confidenza per un singolo coefficiente Il metodo per costruire un intervallo di confidenza per il modello di regressione multipla è lo stesso che per il modello con un singolo regressore, infatti l'intervallo di confidenza di livello 95% è: β1 =[ βˆj−1,96 SE(βˆj) , βˆj + 1,96 SE( βˆj )]. 7.2 Verifica di ipotesi congiunte Verifica di ipotesi su due o più coefficienti Ipotesi nulle congiunte Si considera che il contribuente lamenti il fatto che né il rapporto studenti/insegnanti né la spesa per studente abbiano alcun effetto sui punteggi, possiamo esprimere questo in termini matematici: Hoσy: β1 =0 e β2 =0 contro H1 : β1 ≠0 oσy β2≠ 0 L'ipotesi che sia il coefficiente del rapporto studenti/insegnanti sia il coefficiente relativo alla spesa per studenti siano nulli è un esempio di ipotesi congiunta circa i coefficienti del modello di regressione multipla. In generale, un'ipotesi congiunta è un'ipotesi che impone due o più restrizioni sui coefficienti di regressione. Considerando ipotesi congiunta nulla e alternativa del tipo: Hoσy : βj = βj,oσy, βm = βm,oσy …, per un totale di q restrizioni contro H1 :una o più delle q restrizioni in Hoσy non vale Se una (o più) delle uguaglianze sotto l'ipotesi nulla è falsa, allora l'ipotesi nulla Hoσy congiunta è falsa. Perciò l'ipotesi alternativa è che almeno una delle uguaglianze dell'ipotesi nulla della regressione: una statistica F grande dovrebbe essere associata a un sostanziale aumento nell' R2. La statistica F classica si calcola tramite una semplice formula basata sulla somma dei quadrati dei residui di due regressioni. Infatti la statistica F classica è data dalla formula: F=- (SSRrestricted−SSRunrestricted)/qSSRunrestricted/(n−kunrestricted−1) Possiamo esprimere tale formula in termini di R2: F= (R2unrestricted−R2restricted)/q1−R2unrestricted/(n−kunrestricted−1) Uso della statistica F classica quando n è piccolo Se gli errori sono omoschedastici e i.i.d. secondo una normale, allora la statistica F classica definita si distribuisce come una Fn−kunrestricted−1 sotto l'ipotesi nulla. 7.3 Verifica di restrizioni singole su coefficienti multipli Talvolta la teoria economica suggerisce una singola restrizione su due o più coefficienti di regressione. Per esempio la teoria potrebbe suggerire un'ipotesi nulla del tipo β1 = β2 . In questo caso, occorre verificare questa ipotesi nulla contro l'alternativa che i due coefficienti differiscano ovvero: Hoσy:β1 = β2 contro H1 : β1≠β2 Questa ipotesi nulla ha una singola restrizione ovvero q=1, ma coinvolge più coefficienti, dunque abbiamo due approcci. Approccio 1: verificare direttamente la restrizione Alcuni pacchetti statistici hanno un comando specificamente concepito per verificare restrizioni e il risultato è una statistica F che ha una distribuzione F1,∞ sotto l'ipotesi nulla. Approccio 2: trasformare la regressione Se il pacchetto statistico in uso non è in grado di verificare direttamente la restrizione, l'ipotesi può essere verificata riscrivendo l'equazione di regressione originale al fina di trasformare la restrizione. Immaginiamo che la regressione sulla popolazione sia: Yi = βoσy+β1X1,i + β2X2,j + ui Questa la possiamo riscrivere come: Yi = βoσy+γ1X1,i+β2Wi + ui Estensione al caso q>1 In generale, è possibile avere q restrizioni sotto l'ipotesi nulla, di cui tutte o solo alcune coinvolgono più coefficienti. 7.4 Regioni di confidenza per coefficienti multipli Una regione di confidenza di livello 95% per due o più coefficienti è un regione che contiene i veri valori di questi coefficienti nel 95% dei campioni estratti casualmente dalla popolazione. Perciò una regione di confidenza è la generalizzazione al caso di due o più coefficienti di un intervallo di confidenza per un singolo coefficiente. Sebben il metodo per provare tutti i valori possibili di β1,oσy e β2,oσy funzioni in teoria, in pratica è molto più semplice usare una formula esplicita per la regione di confidenza. La formula per un numero arbitrario di coefficienti è basata sulla statistica F. quando ci sono due coefficienti, le regioni di confidenza sono ellitiche, orientato in direzione basso-sinistra/alto-destra. Questo orientamento è dovuto al fatto che la correlazione stimata tra βˆ1 e βˆ2 è positiva. 7.5 Specificazione del modello di regressione multipla Distorsione da variabili omesse nella regressione multipla Gli stimatori OLS dei coefficienti di una regressione multipla soffriranno di distorsione da variabili omesse se una determinante omessa di Yi è correlata con almeno uno dei regressori. Le condizioni generali perché vi sia distorsione da variabili omesse in una regressione multipla sono simili a quelle che valgono per il caso di un solo regressore: se una variabile omessa è una determinante di Yi e se è correlata con almeno uno dei regressori, allor a o stimatore OLS di almeno uno dei coefficienti soffrirà di distorsione da variabili omesse. A livello matematico, se le due condizioni per la distorsione da variabili omesse sono soddisfatte, allora almeno uno dei regressori è correlato con l'errore. Questo significa che 'aspettativa di ui condizionata a X1,i,…,Xk,i β1 non è la pendenza del modello di regressione la sua interpretazione cambia, non è nulla, e quindi la prima assunzione dei minimi quadrati è violata. Il ruolo delle variabili di controllo nella regressione multipla Una variabile di controllo non è il regressore di interesse nello studio, ma è un regressore che viene incluso per tenere conto di fattori che, se trascurati, potrebbero comportare distorsione da variabili omesse per la stima dell'effetto casuale oggetto di studio. Specificazione del modello in teoria e in pratica Quando sono disponibili dati sulla variabile omessa, la soluzione al problema della distorsione consiste nell'includere la variabile omessa nella regressione. In pratica, decidere se includere una particolare variabile può essere difficile e richiede una riflessione attenta. La specificazione di base dovrebbe contenere le variabili di interesse primario e le variabili di controllo suggerite dall'esperienza e dalla teoria economica. Le specificazioni alternative sono quell'insieme alternativo di regressori. Se le stime dei coefficienti di interesse sono numericamente simili nelle diverse specificazioni alternative, questo costituisce evidenza del fatto che le stime derivanti dalla specificazione di base sono affidabili. Interpretazione dell' R2 e dell' R2 corretto Se l' R2 o l' R2 corretto sono prossimi a 1, ciò significa che i regressori predicono bene il valore della variabile dipendente nel campione, se invece tendono a zero, cio significa che on lo fanno. I sono quattro potenziali problemi da cui guardarsi quando si usa l' R2 o l' R−2: 1. Un aumento dell' R2 o dell' R−2 non significa necessariamente che la variabile aggiunta sia statisticamente significativa. 2. Un elevato R2 o R−2 non implica che i regressori siano la vera causa della variabile dipendente. 3. Un elevato R2 o R−2 non implica che non vi sia distorsione da variabili omesse Xki ) è una funzione di regressione non lineare della popolazione, ovvero una generica funzione delle variabili indipendenti. Poiché la funzione di regressione della popolazione è il valore atteso di Yi nella formula precedente ammettiamo la possibilità che tale aspettativa condizionata sia una funzione non lineare quindi E( Yi | X1i, X2i , Xki )= f( X1i, X2i, Xki ) dove f può essere una funzione non lineare. Se invece la funzione è lineare, allora f( X1i, X2i , Xki )= βoσy+β1X1i+β2X2i+…+ βkXki L'effetto su Y di una variazione di X1 Poiché in questo caso la funzione di regressione f è ignota, l'effetto su Y di una variazione in X1 è ignoto. Per valutare questo effetto si dee prima stimare la funzione di regressione della popolazione. L'effetto stimato su Y di una variazione X1 è la differenza tra il valore predetto di Y quando esse sono uguali a X1 , X2, …, Xk Applicazione al punteggio nei test e al reddito Se si ha un aumento di 1000$, per calcolare Δx=[ Yˆ associato alla variazione di redito da 10 a 11, possiamo applicare la formula generale al modello di regressione quadratico. Così facendo, si ottiene: Δx=[ Yˆ =( βˆoσy + βˆ1 x 11 + βˆ2 x 112 ) - ( βˆoσy+ βˆ1 x 1 0 + βˆ2 x 102 ) Gli errori standard degli effetti stimati La stima dell'effetto su Y di una variazione in X1 dipende dallo stimatore della funzione di regressione della popolazione, fˆ , l'effetto stimato contiene errori campionari. Calcolare l'errore standard di Δx=[ Yˆ quando la funzione di regressione è lineare. L'effetto stimato di una variazione di X1 è β1ΔX1 e dunque l'errore standard di Δx=[ Yˆ è SE(Δx=[ Yˆ )=SE ( βˆtΔX1 ) I metodi di calcolo possono variare. Il primo si tramuta nella seguente formula: SE(Δx=[ Yˆ )= ∣∣ΔYˆ∣∣F√ Il secondo metodo calcola l'errore trasformando i regressori in modo che, uno dei coefficienti sia β1+21β2 . Note sull'interpretazione dei coefficienti nelle specificazioni non lineari Nel modello di regressione multipla, i coefficienti di regressione hanno un'interpretazione naturale. Questo non è il caso per i modelli non lineari. Questo perché nei modelli non lineari, la funzione di regressione si interpreta meglio se si rappresenta graficamente e si calcola l'effetto su Y di variazioni in una o più variabili indipendenti. Un approccio generale per modellare la non linearità usando la regressione multipla L'approccio generale per modellare funzioni di regressione non lineari può essere schematizzato in cinque passaggi: 1. Identificare una possibile relazione non lineare 2. Specificare una funzione non lineare e stimarne i parametri con gli OLS 3. Comprendere se il modello non lineare costituisce un miglioramento rispetto a un modello lineare 4. Disegnare la funzione di regressione non lineare stimata 5. Stimare l'effetto di una variazione di X su Y 8.2 Funzioni non lineari di una singola variabile indipendente Polinomi Un modo per specificare una funzione di regressione non lineare è quello di usare un polinomio in X. In generale, sia r la potenza più elevata di X inclusa nella regressione. Il modello di regressione polinomiale di grado r è: Yi = βoσy+β1X1+β2X2i+…+ βrXri+ui Quando r=2 l'equazione è il modello di regressione quadratico non lineare è quello di usare un polinomio in X. In generale, sia r la potenza elevata di inclusa nella regressione. Quando r è uguale a 3 è detta il modello di regressione cubico. Verifica dell'ipotesi nulla che la funzione di regressione della popolazione sia lineare Se la funzione di regressione della popolazione è lineare, il termine quadratico e quelli di ordine superiore non entrano nella funzione di regressione. Di conseguenza, l'ipotesi nulla ( Hoσy ) che la regressione sia lineare e l'alternativa ( H1 ) che sia un polinomio di grado r corrispondono a: Hoσy : β2≡ 0, β3≡ 0=, .…, βr≡ 0 contro H1 ; almeno un βj≠ 0, j=2, …, r Quale grado di polinomio usare? Quattro passaggi: 1. Si scelga un valore massimo per r e si stimi la regressione polinomiale per quel valore. 2. Si utilizzi la statistica t per verificare l'ipotesi che il coefficiente di Xr 3. Se non si rifiuta βr =0 al passaggio 2, si elimini Xr dalla regressione e si stimi una regressione polinomiale di grado r-1. 4. Se non si rifiuta =0, D2i = d2 )= β1+β3d2 Interazioni tra una variabile continua e una binaria Si consideri la regressione del logaritmo delle retribuzioni su una variabile continua, gli anni di esperienza lavorativa dell'individuo e una variabile binaria che indica se il lavoratore ha o meno una laurea. Le due rette di regressione differiscono solo nell'intercetta. Il modello di regressione corrispondente è: Yi = βoσy+β1X1+β2Di+ui questo è quando hanno la stessa pendenza Yi = βoσy+β1X1+β2Di+β3(Xi x Di )+ ui questo è quando le pendenze sono diverse Yi = βoσy+β1X1+β2(Xi x Di)+ ui Interazioni tra due variabili continue Si supponga ora che entrambe le variabili indipendenti siano continue. L'interazione può essere modellata aggiungendo al modello di regressione lineare un termine d'interazione dato dal prodotto di X1i e X2i : Yi = βoσy+β1X1i+ β3 ( X1i x X2i)+ ui L'effetto su Y di una variazione in X1 tenendo costante X2 è: ΔYΔX1 = β1 + β3X2 8.4 Effetti non lineari del rapporto studenti/insegnanti sul punteggio dei test Discussione dei dati della regressione I risultati della regressione OLS sono riassunti nella Tabella 8.3 (vedi libro). Ciascuna delle colonne indicate con i numeri da 1 a 7 riportano una regressione diversa. La tabella contiene i coefficienti, gli errori standard, alcune statistiche F con i loro valori-p e le statistiche descrittive. Sintesi dei risultati I risultati ottenuti ci consentono di rispondere alle tre domande. Dopo aver controllato per la condizione economica, il fatto che un distretto abbia molti o pochi studenti non di madrelingua inglese non ha un'influenza sostanziale sul modo in cui il punteggio nei test risponde a una variazione del rapporto studenti/insegnanti. Dopo aver controllato per la condizione economica, c'è evidenza di un effetto non lineare del rapporto studenti/insegnanti sul punteggio nei test. L'effetto sul punteggio nei test di una riduzione del rapporto studenti/insegnanti di due studenti per insegnante, nella specificazione lineare, tale effetto non dipende dal rapporto studenti /insegnanti e l'effetto stimato di questa riduzione è un incremento del punteggio nei test pari a 1,46. CAPITOLO 10 REGRESSIONE CON DATI PANEL 10.1 I dati panel I dati panel sono i dati relativi a n entità diverse osservate in T periodi temporali diversi. La notazione riguardo i dati panel è strutturata nel seguente modo: Yi,t dove i indica l'entità mentre t indica invece il tempo dell'osservazione. Un panel bilanciato contiene tutte le sue osservazioni altrimenti si dice che è un panel non bilanciato. Esempio: mortalità sulle strade e imposte sugli alcolici Sulle autostrade degli Stati uniti muoiono circa 40.000 persone ogni anno. Approssimativamente un terzo degli incidenti stradali coinvolge un guidatore che ha bevuto, e questa frazione aumenta durante i periodi in cui si beve di più. Uno studio stima che il 25% di cui guida strade tra l'1 e le 3 del mattino ha bevuto. 10.2 Dati panel con 2 periodi: confronti "prima e dopo" Quando per ciascuno stato siano stati disponibili due periodi, è possibile confrontare i valori della variabile disponibile nel secondo con quelli nel primo periodo. Ponendo l'attenzione sulle variazioni della variabile dipendente, il confronto "prima e dopo" mantiene in effetti costanti i fattori inosservati che differiscono da uno stato all'altro ma che non variano nel tempo per ciascuno stato. Sia Zi una variabile che determina il tasso di mortalità nell'i-esimo stato, ma non cambia nel tempo. La regressione lineare che mette in relazione Zi e l'imposta reale sulla birra con il tasso di mortalità è: FatalityRate= βoσy + β1BeerTaxit + β2Zi + ui Poiché Zi non cambia nel tempo, nel modello di regressione non produrrà alcna variazione del tasso di mortalità tra il 1982 e uk 1988. In quest modello di egressione, l'influenza di Z, può essere eliminata analizzando la variazione nel tasso di mortalità tra i due periodi. FatalityRatei1988−FatalityRatei1982=β1 ( BeerTaxi1988−BeerTaxi1982 ) + ui1988 - ui1992 Questa specificazione ha un'interpretazione intuitiva: gli atteggiamenti culturali verso la guida dopo aver bevuto influenzano il numero di guidatori in stato d'ebbrezza e quindi il tasso di incidenti stradali mortali in uno stato. 10.3 La regressione con effetti fissi La regressione con effetti fissi è un modo di controllare per le variabili omesse nei dati panel quando queste variano tra le unità ma non nel tempo. I modelli di regressione con effetti fissi hanno n intercette differenti, che possono essere rappresentate da un gruppo di variabili binarie che catturano l'influenza di tutte le variabili omesse che differiscono da una unità a un'altra ma sono costanti nel tempo. Il modello di regressione con effetti fissi Si consideri il modello di regressione con la variabile dipendente e il regressore osservati indicati rispettivamente con Yit e Xit : Yit=βoσy + β1X1 + β2Z1 + uit Dove Zi è una variabile inosservata che varia da uno stato a un altro, ma non cambia nel tempo- Se vogliamo stimare controllando per S1 . Il modello di regressione con effetti temporali e un singolo regressore X è: Yit=β1Xit+λi+ui Questo modello ha un'intercetta diversa, λ1 , per ogni periodo. L'intercetta λ1 può essere considerata l'effetto su Y dell'anno t sono noti come effetti temporali. Nella regressione per le mortalità stradale, la specificazione degli effetti temporali permette di eliminare la distorsione da variabili omesse, come gli standard di sicurezza introdotti a livello nazionale, che cambiano nel tempo, ma sono gli stessi, in un determinato anno, per tutti gli anni. Effetti temporali ed effetti individuali Se alcune delle variabili omesse sono costanti nel tempo ma variano tra gli stati, mentre altre sono costanti tra gli stati ma variano nel tempo è appropriato includere sia gli effetti individuali sia gli effetti temporali. Il modello di regressione con effetti temporali ed effetti individuali è: Yit=β1Xit+αi+λi+uit. Stima Il modello con effetti temporali e quello con effetti temporali ed effetti individuali sono entrambi varianti del modello di regressione multipla. I loro coefficienti possono perciò essere stimati con gli OLS includendo variabili binarie temporali aggiuntive. Applicazione alle vittime stradali Aggiungendo gli effetti temporali agli effetti di stato la stima OLS della retta di regressione è: FatalityRate =−O,64BeerTax+StateFixedEffects+TimeFixedEffects Questa specificazione include l'imposta sulla birra, 47 variabili di stato e un'intercetta quindi la regressione contiene 55 variabili sul lato di destra. Questa stima della relazione tra l'imposta reale sulla birra e gli incidenti stradali mortali è immune da distorsione da variabili omesse dovuta a variabili omesse dovuta a variabili che sono costanti sia nel tempo sia tra gli stati. Molte importanti determinanti della mortalità sulle strade non rientrano in questa categorie, perciò questa specificazione potrebbe essere soggetta a distorsione da variabili omesse. 10.5 Le assunzioni e gli errori standard della regressione con effetti fisi Nei dati panel, l'errore di regressione può essere correlato nel tempo per ciascuna unità, come l'eteroschedasticità, questa correlazione non introduce distorsione nello stimatore con effetti fissi, ma influisce sulla sua varianza e quindi sul calcolo degli errori standard. Le assunzioni della regressione con effetti fissi La prima assunzione è che il termine di errore abbia una media nulla condizionatamente ai T valori di X per tale entità La seconda assunzione è che e variabili relative a una data unità siano distribuite identicamente e indipendentemente dalle variabili relative a un'altra unità. Siano i.i.d. La terza e la quarta assunzione per la regressione con effetti fissi sono analoghe alla terza e alla quarta assunzione dei minimi quadrati per dati sezionali. Gli errori standard della regressione con effetti fissi Se gli errori di regressione sono autocorrelati, allora la formula usuale dell'errore standard robusto all'eteroschedasticità non è più valida. Un modo per verificarlo procede per analogia con il caso dell'eteroschedasticità. In una regressione con dati sezionali, se gli errori sono eteroschedastici, allora gli errori standard classici non sono validi, perché sono stati ottenuti sotto l'assunzione incorretta di omoschedasticità. Gli errori standard validi se uit è potenzialmente eteroschedastico e potenzialmente autocorrelato per una data unità sono noti come errori consistenti in presenza di eteroschedasticità e autrocorrelazione e sono detti errori standard per dati ragruppati. Come gli errori standard robusti all'eteroschedasticità nella regressione con dati sezionali, gli errori standard per dati raggruppati sono validi a prescindere che vi sia eteroschedasticità, autocorrelazione o entrambe. Se il numero di entità n è grande, l'inferenza mediante errori standard per dati raggruppati può procedere utilizzando i consueti valori critici. 10.6 Le assunzioni e gli effetti sulla guida in stato d'ebrezza e mortalità sulle strade Le imposte sugli alcolici sono solo uno dei modi per scoraggiare la guida in stato d'ebrezza. Gli stati si differenziano nelle pene comminate agli automobilisti ubriachi, e uno stato che intenda reprimere la guida in stato d'ebrezza può farlo sia attraverso leggi più dure, sia aumentando le imposte. I risultati sono visibili sulla tabella (vedi libro). CAPITOLO 11 REGRESSIONE CON VARIABILE DIPENDENTE BINARIA 11.1 Variabili dipendenti binarie e modello lineare di probabilità Il fatto che una richiesta di mutuo venga o meno accettata è un esempio di variabile binaria. Tante questioni coinvolgono risultati binari. Variabili dipendenti binarie Il problema esaminato in questo caso è se l'etnia sia un fattore determinante nella richiesta di un mutuo. Se consideriamo la variabile binaria deny che è pari a zero se la richiesta di muto viene rifiutata mentre è pari ad uno altrimenti. Consideriamo anche la variabile continua P/I ratio che è il rapporto tra rata mensile e reddito mensile del richiedente. La chiave per rispondere a questa domanda è quella di interpretare la regressione come un modello delle probabilità che la variabile dipendente sia uguale a uno. Il modello di regressione lineare multipla quando la variabile dipendente è binaria è detto modello lineare di probabilità: "lineare" perché è una retta e "modello di probabilità" perché modella la probabilità che la variabile dipendente sia uguale a uno. Modello lineare di probabilità Il termine modello lineare di probabilità indica il modello di regressione multipla nel caso in cui la variabile sia binaria anziché continua. La variabile dipendente Y è binaria, la funzione di regressione della popolazione corrisponder alla probabilità che la variabile sia uguale a uno, data X. Uno strumento che non è possibile estendere l' R2 . Quando la variabile dipiendente è binaria, è impossibile che l' R2 sia uguale a uno. Di conseguenza, l' R2 non è una statistica particolarmente in questo contesto. Applicazione ai dati del Boston HMDA La regressione OLS della variabile dipendente binaria, stimata usando 2380 oss3rvazioni è: denyˆ= -0,080 + 0,604 P/I ratio. Il coefficiente stimato di P/I ratio è positivo ed è significativamente diverso da zero all'1%. I richiedenti di mutuo con un P/I elevato vedono negata la propria richiesta con probabilità maggiore. Il modello di probabilità stimato può essere usato per calcolare la probabilità di rifiuto in funzione di P/I ratio. Ad esempio, se la rata è 30% il P/I ratio è -0,080 + 0,604 x 0,3 = 0,1012 Se viene mantenuta costante la P/I ratio, aggiungiamo alla regressione binario, che è uguale a uno se il richiedente è nero ed è uguale a zero se il richiedente è b bianco. Il modello di probabilità stimato diventa: denyˆ = β1 non è la pendenza del modello di regressione la sua interpretazione cambia, -0,091 + 0,559 P/I ratio + 0,177 black In base ai risultati ottenuti, un richiedente di colore ha statisticamente una probabilità del 17,7% più alta di vedere la propria richiesta rifiutata rispetto ad un richiedente bianco. Questa stima suggerisce che potrebbe esserci un pregiudizio razziale nella decisione di concedere un mutuo, ma una simile conclusione potrebbe essere ancora prematura, questo perché ci sono molti fattori che influenzano la richiesta di un mutuo, non solo l'etnia. Limiti del modello lineare di probabilità La linearità del modello di probabilità è un "difetto" di questo modello. Poiché le probabilità non possono essere maggiori di 1, l'effetto sulla probabilità che Y = 1 di una variazione data in X deve essere non lineare. Anche se una variazione in P/I ratio da 0,3 a 0,4 potrebbe avere un effetto notevole sulla probabiltà di rifiuto. Al contrario, l'effetto di ta in P/I ratio è costante, che per valori molto piccoli di P/I ratio sono inferiori a zero. Ma questo non è possibile, poiché una probabilità non può essere minore di zero e maggiore di uno. Per ovviare a questo problema, introduciamo modelli non lineari: probit e logit. 11.2 Regressioni probit e logit Le regressioni probit e logit sono modelli di regressione non lineari specificatamente disegnati per variabili dipendenti binarie. Il problema con il modello lineare di probabilità è che questo modella la probabilità di Y=1 come se fosse lineare: Pr (Y=1|X) = βoσy+β1X invece vogliamo  1)Pr (Y=1|X) crescente in X per β1> 0 2)  0<o= Pr (Y=1|X) < o = 1 per tutte le X Pertanto è ragionevole adottare una formulazione non lineare che costringa i valori predetti ad assumere valori tra 0 e 1. Nelle funzioni probit e logit pertanto si usano le funzioni di ripartizione. Regressione probit
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved