Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Campionamento e metodi statistici, Dispense di Statistica

Dispensa utile per la preparazioni di esami di statistica. In particolare, la prima parte riguarda i metodi di campionamento, mentre la seconda riguarda il modello di regressione lineare multipla e gli indici di produttività.

Tipologia: Dispense

2021/2022

In vendita dal 29/06/2024

G.I.O.R.G.I.O.
G.I.O.R.G.I.O. 🇮🇹

10 documenti

Anteprima parziale del testo

Scarica Campionamento e metodi statistici e più Dispense in PDF di Statistica solo su Docsity! Pag. 1 a 83 STATISTICA PER LE DECISIONI AZIENDALI 2. Disponibilità e produzione delle informazioni statistiche. 2.2. Fonti interne: sistemi informativi aziendali e la loro informatizzazione. Le fonti di dati interne all’azienda contribuiscono in misura rilevante a costruire l’informazione su cui si basano le scelte manageriali. Le aziende, infatti, generano una moltitudine di dati nell’esercizio delle proprie funzioni. In questo libro ci soffermiamo sugli aspetti organizzativi dell’informazione all’interno di un’azienda, di cui il Sistema Informativo Aziendale (SIA) rappresenta la realizzazione compiuta. Oggi SIA indica generalmente il sistema che fornisce le informazioni necessarie per governare un’azienda in modo efficiente ed efficace. Tale sistema si avvale di tre risorse principali: le informazioni presenti in azienda, le modalità di gestione delle stesse e le risorse (umane e tecnologiche) coinvolte. Un primo passo verso l’informatizzazione del SIA avviene quando i dati elementari sono salvati e organizzati in modo sistematico in archivi tematici come gli archivi vendite, l’anagrafe dei clienti e dei fornitori o l’archivio ordini. Successivamente tali archivi possono essere collegati, secondo un determinato modello logico (modello relazionale è il più utilizzato), in un unico database in modo da consentire la gestione dei dati da parte di particolari software. Il database aziendale, dunque, non è altro che un insieme strutturato di dati collegati da relazioni. L’evoluzione del database è il cosiddetto data warehouse, letteralmente “magazzino” in cui confluiscono dati di origine diversa, con l’obiettivo specifico di produrre informazioni orientate ai bisogni dell’utente. Rispetto al database aziendale, un data warehouse: a) Integra i dati provenienti dagli archivi aziendali con dati provenienti da fonti esterne; b) Fornisce informazioni “su misura” per l’utente; c) Immagazzina i dati in serie storica; d) Consente l’accesso ai dati in sola lettura, preservandone l’integrità. Il data warehouse, dunque, sfruttando e integrando dati e informazioni già disponibili sia all’interno che all’esterno dell’azienda, rappresenta l’infrastruttura informatica di base di supporto alle decisioni. 2.3. Fonti esterne. Statistica ufficiale e statistica privata. Le fonti di dati esterne all’azienda sono costituite dall’insieme delle statistiche prodotte da soggetti sia pubblici che privati che operano nel sistema. In questo libro concentriamo l’attenzione sui seguenti argomenti: la contabilità macroeconomica, le caratteristiche strutturali del sistema produttivo, i risultati economici delle imprese, il comportamento del consumatore. 2.3.1. I conti nazionali di un Paese: dalla contabilità aziendale alla contabilità nazionale. L’attività di un’impresa risente inevitabilmente del contesto macroeconomico in cui essa opera, per questo tra le fonti di dati di interesse per le imprese riteniamo utile inserire i conti nazionali, che forniscono appunto una rappresentazione quantitativa dell’attività economica complessiva di un Paese, in un determinato periodo di tempo. I conti nazionali organizzano i flussi monetari in schemi contabili strutturati secondo il metodo della partita doppia, con flussi in entrata, in uscita e saldi contabili. Ciascun conto ha l’obiettivo di registrare i flussi monetari che caratterizzano uno specifico momento del processo economico, ciascuno riconducibile a una delle seguenti quattro fasi fondamentali: 1 Fase di produzione; 2 Fase di distribuzione e re-distribuzione del reddito; 3 Fase del consumo; 4 Fase di accumulazione. I conti nazionali presentano la stima degli aggregati macroeconomici più importanti del sistema, come il valore della produzione, del reddito, della spesa per consumo, degli investimenti, del risparmio, fino all’indebitamento/accreditamento del Paese nei confronti del resto del mondo. L’aggregato cardine dell’intero sistema è il Prodotto Interno Lordo (PIL). Presentiamo adesso il Conto delle risorse e degli impieghi, non solo per fornire un esempio concreto di conto nazionale, ma anche perché questo conto in particolare fornisce una visione d’insieme sulla situazione economica del Paese. Il Conto delle risorse e degli impieghi descrive le operazioni di scambio che avvengono nel mercato dei beni e servizi finali, escludendo cioè quelli destinati a consumo intermedio. Si tratta in pratica di un bilancio tra gli elementi dell’offerta totale costituiti dal PIL e dalle Importazioni, e gli elementi della domanda finale, formati dal valore dei Consumi, degli Investimenti e delle Esportazioni. Pag. 2 a 83 Gli aggregati del Conto delle risorse e degli impieghi sono ulteriormente disaggregati secondo criteri che dipendono dalla natura dell’aggregato considerato. Per esempio, la produzione è suddivisa secondo branche di attività economica. A fianco dei Conti per branca di attività economica, la Contabilità nazionale compila i Conti per settore istituzionale, che hanno l’obiettivo di analizzare il comportamento economico di gruppi di operatori omogenei detti Settori istituzionali. In particolare, la Contabilità nazionale distingue cinque settori: Società non finanziarie, Società finanziarie, Amministrazioni pubbliche, famiglie e Istituzioni senza scopo di lucro al servizio delle famiglie. 2.3.2. Le fonti sulle caratteristiche strutturali delle imprese. Una prima caratteristica strutturale riguarda il tipo di attività economica svolta dall’azienda e codificata con la già citata classificazione Ateco. Tale caratteristica definisce il profilo settoriale dell’impresa; una seconda caratteristica fa riferimento al profilo dimensionale dell’impresa; infine, un’ulteriore caratteristica strutturale è data dal profilo territoriale dell’impresa. La fonte che descrive in modo esaustivo e completo le caratteristiche strutturali del sistema produttivo italiano è il Censimento dell’Industria e dei Servizi (CIS). Nel CIS, le imprese sono analizzate non solo per settore di attività economica, ma anche per classe dimensionale, forma giuridica e altri caratteri, come il fatto di essere o meno un’impresa artigiana o di essere costituita da una o più unità locali. Informazioni così dettagliate consentono all’impresa di collocare la propria attività in un determinato contesto territoriale, settoriale e dimensionale. Purtroppo, la scarsa tempestività dei dati, dovuta sia alla cadenza decennale che ai lunghi tempi di elaborazione dei dati, ne limitano molto l’utilità. Per molti anni non è esistita alcuna fonte in grado di tener conto dei mutamenti strutturali del sistema produttivo intervenuti tra un censimento e il successivo. Solo nel 1997, con il Censimento intermedio dell’industria, furono gettate le basi per la costruzione di un Archivio delle imprese attive, finalizzato a seguire l’evoluzione intercensuaria della struttura del sistema produttivo. Attualmente, l’ISTAT produce e pubblica tavole di sintesi tratte, soprattutto dall’ASIA, l’archivi delle imprese attive. Tale archivio è aggiornato sulla base di una pluralità di archivi amministrativi gestiti dalle Camere di commercio, dall’Agenzia delle entrate, da enti previdenziali come INPS e da altri enti pubblici. 2.3.3. Le fonti sui risultati economici delle imprese. I risultati economici delle imprese sono rilevati da una pluralità di fonti che possono essere raggruppate nelle seguenti categorie: a) Il sistema di indagini sui risultati economici delle imprese condotte dall’ISTAT; b) Le banche dati sui bilanci aziendali. Le indagini ISTAT. Il nucleo fondamentale è costituito da due indagini integrate, entrambe dirette a rilevare informazioni sui risultati economici delle imprese dell’Industria e dei Servizi. La prima, campionaria, è diretta alle imprese di piccole e media dimensioni, ovvero con un numero di addetto compreso tra 1 e 99 (indagine PMI). La seconda, è un’indagine totale per le imprese con almeno 100 addetti (indagine SCI). Entrambe le fonti rilevano informazioni dettagliate sulle voci di conto economico, sull’occupazione, sul costo del personale, sugli investimenti. Per le grandi imprese sono inoltre fornite informazioni tratte dallo stato patrimoniale. Sulla base di tali informazioni è possibile comparare il risultato economico della propria impresa rispetto a quello medio delle imprese appartenenti allo stesso settore di attività economica, alla stessa classe dimensionale, allo stesso contesto territoriale. Il limite principale di queste statistiche è la scarsa tempestività con cui esse vengono rilasciate. Inoltre, la cadenza annuale delle indagini consente l’analisi di dinamiche di medio-lungo periodo ma non di cogliere i movimenti infra-annuali. L’evoluzione di breve periodo è misurata tramite i cosiddetti indicatori congiunturali, ovvero serie trimestrali e mensili di fenomeni riguardanti vari ambiti di interesse per l’impresa, come il fatturato e gli ordinativi dell’industria, i costi delle materie prime, la retribuzione e il costo del lavoro nelle grandi imprese o i prezzi di vendita dei prodotti dell’industria. Le banche dati sui bilanci aziendali. Queste banche dati sono ottenute rielaborando dati di origine amministrativa tratti dai bilanci delle singole società di capitali italiane. Il contenuto, pertanto, ricalca quello del bilancio, cui si accompagnano, in alcuni casi, informazioni tratte dalla nota integrativa e dalle relazioni che vengono allegate al bilancio stesso. Le principali banche dati sui bilanci aziendali sono fornite dalla Cerved B.I. S.p.A. e dalla Centrale dei bilanci. I dati tratti da queste fonti sono utilizzati principalmente per confrontare la performance dell’impresa con quella delle imprese concorrenti. trattandosi di dati individuali, i confronti possono essere più mirati rispetto a quanto possa essere fatto utilizzando i dati di indagine richiamati al punto precedente. Pag. 5 a 83 Per indagini su famiglie o individui possiamo utilizzare come liste di campionamento alcuni archivi di tipo amministrativo, come le liste dell’anagrafe della popolazione, le liste elettorali o gli elenchi di abbonati alla rete fissa telefonica. In questi casi è evidente come la popolazione di selezione differisca dalla popolazione obiettivo: nelle liste elettorali, per esempio, non sono presenti i minori, né le persone che, pur abitando nell’aria di interesse risiedono altrove, né tantomeno coloro che non hanno diritto di voto; gli elenchi telefonici, d’altra parte, hanno il limite di raggiungere soltanto gli individui che hanno un abbonamento alla rete telefonica fissa. [errore di mancata copertura disallineamento della popolazione di selezione da quella obiettivo]. Per la selezione di campioni di imprese o di esercizi commerciali, la principale lista di riferimento è il Registro delle imprese tenuto dalle Camere di Commercio. La popolazione di selezione non rappresenta ancora la popolazione a cui possono effettivamente essere generalizzate le informazioni raccolte sul campione. Infatti, la composizione del campione (e quindi delle informazioni rilevate su di esso) può cambiare anche in maniera significativa a causa dell’impossibilità di rintracciare alcune unità (unità cadute o dropouts) o del rifiuto da parte di alcune di queste, di partecipare alla rilevazione o di rispondere ad alcune domande. Il fenomeno della mancata osservazione di un’unità che fa parte della popolazione di selezione prende il nome di non risposta o mancata risposta totale. In presenza di mancate risposte, il campione effettivo diventa un sottoinsieme del campione teorico, in grado di fornire evidenza soltanto per quella parte della popolazione di selezione rappresentata dalle unità effettivamente osservate. Tale popolazione è detta popolazione di indagine. 2.6.2. Formazione del campione. L’obiettivo di un’indagine campionaria è quello di giungere a stimare alcuni parametri della popolazione sulla base della evidenza fornita dal campione selezionato. La differenza tra la stima del parametro ottenuta sulla base dell’osservazione delle unità del campione e il valore del parametro nella popolazione è detta errore statistico. L’indagine censuaria, a meno di errori riconducibili a una non corretta esecuzione delle fasi di rilevazione e registrazione dei dati (mancata copertura della lista di campionamento, errori di risposta ecc.), restituisce il vero valore del parametro di interesse, mentre l’indagine campionaria ne fornisce solo una stima, proprio per il fatto di rilevare il carattere su una parte e non sul totale della popolazione. Tuttavia, quest’ultimo tipo di errore (errore campionario) può essere stimato se il campione è stato selezionato con meccanismo casuale (campione probabilistico). Al contrario, non sarà possibile affiancare una misura dell’errore campionario alle stime ottenute sulla base di campioni non probabilistici, selezionati cioè sulla base di scelte arbitrarie dello stesso intervistatore, spesso dettate da considerazioni di ordine pratico. Mentre per i campioni probabilistici deve essere nota a priori la probabilità di inclusione nel campione per ciascuna unità statistica, nel caso dei campioni non probabilistici, tale probabilità è ignota o non viene considerata. Campionamento probabilistico Campionamento non probabilistico Risorse economiche Elevate Contenute Durata delle operazioni Lunga Breve Errore campionario Valutabile Non valutabile Rappresentatività della popolazione Buona Non valutabile La figura 2.2 elenca i principali metodi di campionamento, raggruppandoli nelle due macrocategorie dei campioni di tipo probabilistico da quelli di tipo non probabilistico. Tecniche di campionamento non probabilistico: metodi di selezione campionaria. Perché effettuarli se sappiamo che non sono utili per fare inferenza statistica? Forniscono informazioni, indicazioni di partenza e ipotesi di lavoro. L’importante è non avere la pretesa di attribuire a un campione di quel tipo caratteristiche che non ha, ossia conoscere a prescindere che tramite campioni non probabilistici non è possibile effettuare inferenza statistica. Dunque, il campionamento non probabilistico trova largo impiego nelle ricerche di mercato, gode di diversi vantaggi come la semplicità organizzativa, i bassi costi di realizzazione e la velocità di esecuzione. Per contro, i limiti Pag. 6 a 83 di tale metodologia di campionamento sono: innanzitutto, l’arbitro di chi raccoglie i dati può comportare una distorsione da selezione del campione; in secondo luogo, non è possibile effettuare una stima della precisione dei risultati. I campioni sono selezionati in base a considerazioni di ordine pratico:  Campionamento di comodo: scelta arbitraria;  Campionamento ragionato: selezione non casuale basata su informazioni a priori (es. paniere di prodotti, interviste a opinion leaders);  Campionamento per quote: la popolazione viene suddivisa in base a caratteristiche note, come nel campionamento stratificato, ma poi si campiona in modo non casuale da ogni quota. Sono soluzioni subottimale che non offrono alcuna garanzia di rappresentatività della popolazione. È molto probabile che qualche tipo di involontaria selezione renda la popolazione di indagine diversa dalla popolazione obiettivo.  Campionamento di comodo. È bene chiarire subito che i campioni di comodo non hanno diritto di ospitalità nell’ambito del campionamento statistico. Quest’ultimo può essere definito convenzionalmente come il procedimento attraverso il quale da un insieme di unità costituenti l’oggetto di studio si estrae un numero ridotto di casi, scelti con criteri tali da consentire la generalizzazione dei risultati ottenuti all’intera popolazione. Ciascun elemento di questa ha una probabilità diversa da zero e determinabile a priori di essere incluso nel campione, e non è affatto necessario che le probabilità in questione siano tutte uguali. La formazione di un campione di comodo prescinde completamente dalla selezione di un sottoinsieme di unità da una lista posta in corrispondenza con la popolazione obiettivo. In genere sono gli intervistatori, se previsti dal piano di rilevazione, a decidere arbitrariamente chi avvicinare tra quanti condividono una medesima condizione, come ad esempio il trovarsi contemporaneamente in un dato luogo pubblico (centro commerciale, bar, ristorante o altro tipo di esercizio). Nessuna attenzione particolare viene dedicata ad evitare i rifiuti di collaborazione, perché i tempi rapidi dell’indagine privilegiano la quantità delle risposte alla qualità della collaborazione dei rispondenti. In particolare, il campionamento condotto direttamente presso gli esercizi commerciali soffre di tre potenziali fonti di distorsione, relative rispettivamente:  al punto vendita, perché gli intervistati risiedono spesso nello stesso quartiere, i frequentatori più assidui hanno una maggiore opportunità di essere selezionati e il tipo di negozio può non rappresentare l’intero universo degli utenti del sistema distributivo;  alla collocazione degli intervistatori, nel senso che il luogo fisico dove avviene l’intervista (all’entrata, all’uscita o all’interno del punto di vendita) influisce decisamente sulla disponibilità a collaborare e sulla qualità delle risposte;  al tempo, perché il giorno della settimana e l’orario dell’intervista incidono anch’essi sull’andamento dell’indagine. Si può quindi affermare che i campioni di comodo sono campioni per caso piuttosto che casuali e che i loro risultati valgono in sé e per sé, senza una concreta possibilità di generalizzazione alla popolazione o di specificazione di una misura di attendibilità. Tra i campioni di comodo rientra anche il cosiddetto televoto, divenuto popolare per l’abitudine di trasmissioni radiofoniche e televisive a promuovere la raccolta per telefono di opinioni da parte degli ascoltatori e/o telespettatori. In questo caso la scelta di partecipare all’indagine è lasciata all’adesione volontaria di chi è sintonizzato sulla trasmissione. I dati ottenuti non sono riferibili a tutti i radio/telespettatori, né tanto meno rappresentano l’opinione dell’intera popolazione, in quanto derivano da un processo di autoselezione spontanea e non dall’applicazione di un criterio di scelta di natura ragionata o probabilistica.  Campionamento ragionato. Ci possono essere situazioni specifiche dove chi progetta la ricerca potrebbe sapere che forse non è il caso di cercare di intervistare un campione scelto casualmente, perché magari ci interessa fare un’indagine su un tema abbastanza specialistico, dove quindi non è il caso di fare un campione di tutta la popolazione, ma si cerca di mirare a un target ben preciso, ossia persone che abbiano un contributo di informazione migliore da rilasciare. Nei campioni ragionati l’individuazione degli intervistati è demandata completamente a chi predispone il piano di rilevazione dell’indagine. A partire dalla disponibilità di dati e conoscenze a priori sulla popolazione obiettivo e sulle tematiche oggetto d’interesse vengono selezionate in maniera ragionata specifiche unità statistiche, in quanto ritenute depositarie delle informazioni più rilevanti ai fini del buon andamento della ricerca. In altri termini, il loro apporto conoscitivo è giudicato imprescindibile per lo svolgimento dell’indagine: è quanto avviene, ad esempio, quando sono contattate persone che, per il ruolo occupato nel loro settore di attività o nella società oppure per la notorietà o il prestigio di cui beneficiano, possono essere considerate come testimoni privilegiati o opinion leaders. Sono da includere tra i campioni a scelta ragionata anche quelli nei quali la selezione avviene per elementi ritenuti tipici o Pag. 7 a 83 estremi. In tutti questi casi la dimensione del campione viene fissata di norma in base a criteri di pura convenienza. L’organizzazione dell’indagine risulta generalmente snella e i tempi di realizzazione sono abbastanza rapidi, il che si traduce, non di rado, in un sensibile contenimento dei costi.  Campionamento per quote. Il metodo si basa sulla riproduzione nella composizione del campione di alcune caratteristiche distributive note della popolazione, nonostante non si dispone di una lista di campionamento e nonostante non si applicano criteri di casualità nella selezione delle unità campionarie. Questa metodologia prevede quattro fasi: 1. Si individuano le caratteristiche rilevanti della popolazione da riprodurre nel campione (es. genere e/o età, settore e/o dimensione); 2. Attraverso idonee fonti statistiche si calcola il peso percentuale dei corrispondenti gruppi sul totale della popolazione; 3. Stabilita la numerosità campionaria, essa è ripartita tra i gruppi individuati in modo che il campione rispecchi la composizione della popolazione; 4. Ai rilevatori sono assegnate le quote, ovvero il numero di interviste da effettuare liberamente in ognuno dei gruppi. Il campionamento per quote può essere interpretato come una variante del campionamento a scelta ragionata, realizzata però con le modalità organizzative tipiche del campionamento di comodo. Come avviene per quest’ultimo, si prescinde completamente dalla disponibilità di una lista che contenga i nominativi degli appartenenti alla popolazione obiettivo e non vi è dunque alcuna selezione campionaria che imponga ai rilevatori di contattare determinate unità statistiche. Gli intervistatori hanno la massima discrezionalità nel decidere chi avvicinare e coinvolgere nell’indagine, ma devono rispettare rigorosamente un vincolo prestabilito in fase di progettazione: il campione realizzato dovrà avere una composizione per specifiche caratteristiche (generalmente di natura sociodemografica) perfettamente identica a quella della popolazione di riferimento, cioè appunto dovrà riprodurne le quote. In altri termini, campione e popolazione devono condividere la medesima composizione relativa rispetto a caratteri delle unità statistiche quali il sesso, l’età, la zona di residenza, il livello di istruzione, la condizione professionale, la posizione nella professione. Grande importanza vengono ad avere in questo caso l’aggiornamento e l’attendibilità delle fonti statistiche a partire dalle quali sono tratte le informazioni necessarie per determinare le quote. Le quote prefissate possono essere marginali, se ognuna delle assegnazioni è indipendente dalle altre, oppure associate, se la documentazione statistica disponibile consente di dare indicazioni su due o più caratteri simultaneamente incrociati tra loro. Spesso chi progetta la ricerca, per tenere sotto controllo l’operato degli intervistatori frenandone l’arbitrio nella fase di reclutamento del campione, li obbliga a seguire percorsi predeterminati a partire da un punto di partenza assegnato se l’intervista è diretta, oppure a rispettare modalità di contatto prefissate nel caso l’intervista avvenga telefonicamente. Il criterio ragionato sottostante a questo tipo di campionamento consiste nel pensare che, a parità di composizione strutturale tra campione e popolazione, il campione possa ritenersi automaticamente rappresentativo. Si tratta ovviamente di una rappresentatività solo presunta e non verificata in concreto. In realtà, il fatto di intervistare soprattutto le persone più disponibili a collaborare o più facilmente reperibili, e quindi verosimilmente tra loro più simili per abitudini e atteggiamenti – caratteristica tipica del campionamento per quote – potrebbe comportare una sottostima sistematica della variabilità esistente nella popolazione di riferimento. La scelta casuale di un campione consiste in una procedura equivalente all’estrazione di palline numerate, di forma e peso uguali, indistinguibili, da un’urna nel quadro di una strategia o piano di campionamento (sampling frame) che assegna una probabilità di estrazione nota a priori ad ogni campione appartenente ad un certo insieme (universo dei campioni). Solo quando il campione è scelto casualmente è possibile calcolare il rischio dell’errore a cui ci si espone nella stima delle caratteristiche oggetto di interesse (errore casuale di campionamento) ed estendere mediante procedimenti di inferenza induttiva inversa i risultati all’intera popolazione. Questa operazione è di grande importanza, tanto sul piano teorico che nella pratica, ed è illegittima – è opportuno ripeterlo ancora una volta – quando si lavora con campioni ragionati o per quote. Nel campo dei sondaggi di opinione e delle indagini di mercato è della massima importanza fornire stime affidabili delle caratteristiche della popolazione da cui proviene il campione rispettando l’ordine di grandezza della spesa che viene generalmente preventivata (vincolo di bilancio). Per i motivi appena ricordati il campionamento probabilistico è il solo procedimento capace di garantire questa possibilità. L’inevitabile margine di errore che accompagna i risultati di un’indagine campionaria, per quanto le operazioni di progettazione e di rilevazione siano condotte in modo accurato, richiede che la loro presentazione sia corredata da informazioni che ne consentano una lettura corretta, soprattutto nei casi in cui gli utilizzatori abbiano conoscenze statistiche limitate o ne siano addirittura sprovvisti. La teoria degli Pag. 10 a 83 Le interviste personali, condotte abitualmente presso l’abitazione delle unità statistiche se il campione è selezionato con criterio casuale da una lista, o presso luoghi pubblici ed esercizi commerciali nel caso di criterio di comodo o per quote, presentano alcuni vantaggi legati soprattutto alla possibilità di approfondire determinati argomenti nell’ambito di indagini su temi molto articolati. In particolare, può risultare più semplice grazie all’interazione positiva che spesso si stabilisce tra intervistato e intervistatore mantenere elevate l’attenzione e la qualità di collaborazione dei rispondenti. D’altra parte, gli intervistatori, anche in conseguenza del rigoroso processo di selezione e formazione al quale sempre dovrebbero essere sottoposti, sono in grado di fornire chiarimenti sulle domande e possono aiutarsi con il supporto di elementi visivi grazie ai dispositivi di rilevazione (pc, tablet, smartphone, ecc.) a loro disposizione, seguendo regole di comportamento il più possibile standardizzate. Nel caso di interviste face-to-face quindi gli intervistatori siedono davanti agli intervistati e man mano che l’intervista procede compilano contestualmente il questionario in formato elettronico che appare sullo schermo del dispositivo utilizzato. Si parla in questo caso di metodologia CAPI (Computer Assisted Personal Interview) come alternativa alla tradizionale modalità di compilazione manuale di un questionario cartaceo, nota anche con l’acronimo PAPI (Paper And Pencil Interview). La metodologia CAPI permette di progettare un questionario completamente assistito, che consente un controllo sulla coerenza formale delle domande e costituisce uno schema di intervista lineare per l’intervistatore. Il percorso delle domande da porre è controllato dal software utilizzato, per cui sono ridotte al minimo le possibilità di errore per il rilevatore. È disponibile anche un servizio di help in linea che fornisce istruzioni dettagliate per la gestione di ogni domanda, in sostituzione del manuale solitamente affidato agli intervistatori per i questionari cartacei. Tra i principali svantaggi che contraddistinguono le interviste personali vanno segnalati i costi più elevati rispetto a tutte le altre tecniche di rilevazione, i tempi verosimilmente più lunghi di realizzazione delle interviste e la potenziale influenza, se non addirittura il vero e proprio condizionamento, che l’intervistatore potrebbe esercitare sull’intervistato qualora nel questionario vengano affrontati argomenti di natura personale e riservata, determinando di conseguenza distorsioni nelle risposte (response bias). Nella pratica, a fronte dei costi crescenti delle interviste personali e della diffidenza con cui, soprattutto nelle grandi città, sono accettate visite a domicilio da parte degli intervistatori, trova sempre più frequente applicazione nei sondaggi demoscopici e nelle indagini di mercato su campioni numerosi l’alternativa rappresentata dalle interviste telefoniche. Queste consentono di:  conseguire vantaggi in termini di economicità e soprattutto di tempestività della rilevazione;  esercitare un maggiore controllo sull’operato degli intervistatori durante lo svolgimento delle interviste, e non solo a posteriori;  ottenere un contatto più agevole con gli intervistati, con la possibilità di raggiungere anche coloro che non sono reperibili negli orari in cui di solito si svolgono le interviste personali o che hanno l’abitudine di non aprire la porta di casa ad estranei;  utilizzare una metodologia che gestisce automaticamente le fasi dell’intervista e soprattutto esercita un rigoroso controllo sul suo svolgimento, nota come CATI (Computer Assisted Telephone Interview), rendendo possibile un notevole miglioramento nella qualità dei dati raccolti. Per realizzare sondaggi telefonici su linea residenziale fissa è particolarmente comodo ricorrere agli elenchi telefonici gestiti da Telecom Italia piuttosto che ad altre liste, perché ciò consente di disporre subito dei numeri per effettuare i contatti, conoscendone però i limiti illustrati in precedenza. Come è stato segnalato in precedenza, la maggior parte degli istituti di ricerca utilizza la metodologia CATI come supporto per la definizione e la selezione delle unità di campionamento, per l’inserimento dei dati, per la codifica delle risposte, per la tabulazione e l’analisi dei risultati, grazie soprattutto alla graduale riduzione del costo dei sistemi informatici. La rilevazione CATI si basa sull’interazione tra intervistatore e personal computer. Il questionario è memorizzato nel pc e nel corso della telefonata le domande scorrono a video. Le risposte sono digitate direttamente dall’intervistatore e poi salvate in un database abbinato al questionario. Il software controlla passo per passo lo svolgimento dell’intervista e compie in tempo reale verifiche di completezza e di coerenza tra le risposte ottenute. Inoltre, è possibile gestire automaticamente le telefonate, ovvero gli appuntamenti concordati con gli intervistati. Il sistema CATI presuppone una struttura telefonica centralizzata con la presenza di supervisori che controllano lo svolgimento delle interviste sia mediante l’inserimento sulla linea telefonica (senza alcun disturbo per l’intervistato e con un segnale di preavviso che può udire solo l’intervistatore), sia con un monitoraggio a video del personal computer nel corso dell’intervista, sia ancora attraverso il riascolto delle registrazioni. Per esaminare più in dettaglio le modalità con le quali il software Pag. 11 a 83 interviene nelle diverse fasi della ricerca, è opportuno suddividere quest’ultima in almeno quattro fasi. 1. Estrazione del campione. È possibile fornire al sistema l’esatta lista dei nominativi e dei numeri telefonici preregistrati relativi alle persone da intervistare, in modo che il sistema possa poi distribuirli ai rilevatori sulla base di proporzioni di campionamento o di altri parametri prestabiliti. Inoltre, poiché sono necessari mediamente tra i tre e i quattro contatti telefonici per far sì che un tentativo di intervista vada a buon fine, e in ogni caso possono sempre verificarsi situazioni di irreperibilità o di rifiuto a collaborare, è possibile affiancare al campione programmato una lista di nominativi di riserva. Per evitare distorsioni questa lista dovrebbe essere formata da persone con caratteristiche sociodemografiche il più possibile analoghe a quelle del campione originario. 2. Rilevazione dei dati. Il software segnala il numero telefonico da contattare e procede alla sua composizione e chiamata attraverso la scheda modem collegata. L’intervistatore legge le domande che compaiono sullo schermo e registra da tastiera le relative risposte. Il sistema ne accerta la congruenza e seleziona automaticamente la sequenza delle domande da porre. Durante l’intervista, alla quale viene attribuito un codice univoco, sono registrati tutti gli avvenimenti di interesse (ad esempio abbandoni o mancate risposte) e i tempi di svolgimento (giorno, orario e durata dell’intervista e tentativi necessari prima di completarla). I dati vengono memorizzati in un archivio centralizzato e rimane traccia degli appuntamenti telefonici concordati con riferimento a quanti non fossero reperibili in casa o disponibili al momento del primo contatto utile. 3. Field telefonico. Il software interviene nelle fasi necessarie al controllo ed alla verifica della rilevazione telefonica. Assolve innanzitutto ad una funzione di monitoraggio dell’attività del rilevatore, consentendo al supervisore di osservare sul proprio terminale lo svolgersi di un’intervista come se fosse effettuata in sua presenza, ed eventualmente di scambiare messaggi con gli intervistatori. Permette inoltre il controllo continuo dei dati rilevati in termini di percentuali di risposte ottenute per una o più domande del questionario quando ancora l’indagine non è terminata. È possibile aggiornare costantemente il valore delle eventuali quote di campionamento e verificare, istante per istante, quali sottogruppi del campione siano prossimi al completamento di quelle previste. 4. Elaborazione dei risultati. Il sistema è in grado di effettuare il controllo e l’editing dei dati rilevati. Inoltre, attraverso la definizione di un piano di elaborazione, può generare tabelle statistiche di spoglio e di consultazione dei risultati in maniera guidata. Nella valutazione delle performances del metodo CATI vanno ricordati anche alcuni importanti punti di forza, in primis la rapidità di realizzazione della ricerca, grazie all’automatizzazione delle chiamate, alla gestione informatizzata degli appuntamenti, alla rapidità dei sistemi di controllo centralizzati e alla riduzione dei tempi e dei costi di elaborazione. Sono ovviamente eliminate tutte le fasi preliminari alle elaborazioni tipiche di un’indagine telefonica gestita secondo modalità tradizionali (compilazione manuale dei questionari, data entry, predisposizione di un piano di controllo dei dati in termini di compatibilità e di coerenza reciproca). Ragionando in termini generali, la tecnica dell’intervista telefonica presenta alcuni svantaggi rispetto alle altre modalità d rilevazione, riconducibili sostanzialmente all’assenza di un confronto faccia a faccia tra intervistatore e intervistato. Più precisamente:  È necessario limitare la durata dell’intervista per evitare conseguenze imputabili a stanchezza e disinteresse del rispondente (in genere si suggerisce di non superare i 10-15 minuti);  È opportuno ricorrere a questionari strutturati o semi-strutturati;  È impossibile presentare eventuale materiale di accompagnamento, a meno di non inviarlo preventivamente. I sondaggi postali hanno costituito per molto tempo la più tradizionale alternativa alle interviste personali e telefoniche, anche se ormai vengono sempre meno impiegati. Utilizzati soprattutto per motivi legati al contenimento dei costi, forniscono in genere risultati di qualità inferiore perché danno luogo a tassi di risposta decisamente più bassi (di solito inferiori alla metà di quelli che si ottengono con le altre tecniche d’intervista). Richiedono peraltro un’organizzazione meno complessa, dal momento che si elimina qualsiasi interferenza o distorsione causata dalla presenza dell’intervistatore (ma al tempo stesso anche la possibilità di migliorare qualità e quantità della collaborazione), permettendo all’intervistato di scegliere il momento più opportuno per la compilazione del questionario, con maggior tempo a disposizione per riflettere sulle risposte. La realizzazione standard di un sondaggio postale prevede una serie di decisioni che incidono fortemente sul suo esito e che coinvolgono: a) le caratteristiche del questionario in termini di formato, lunghezza, aspetto editoriale (layout), ecc.; b) la lettera di accompagnamento e presentazione della ricerca (cover letter); Pag. 12 a 83 c) la pianificazione di un sistema di solleciti (follow-ups) per far fronte alla mancata collaborazione dei partecipanti e la predisposizione di una lettera di notifica; d) il tipo di busta per la restituzione, la sua affrancatura e le modalità di spedizione; e) gli incentivi da attribuire eventualmente agli intervistati. Il ricorso al questionario postale appare indicato nel caso di argomenti riservati o delicati per i quali è possibile che la presenza dell’intervistatore condizioni il rispondente, anche se nulla può garantire che sia l’effettivo destinatario del questionario a rispondere. Come già evidenziato, il limite più grave delle indagini postali è costituito dalla quota elevata di mancate risposte e di questionari compilati solo parzialmente, conseguenza della tendenziale autoselezione dei rispondenti. Ciò determina non solo un aumento dei costi – che vanno correttamente calcolati per intervista realizzata, tenendo conto dei successivi solleciti inviati a quanti non collaborano – ma soprattutto influenza negativamente i risultati dell’indagine, tanto nel caso di un campione probabilistico quanto nel caso di un campione ragionato. Non sono solamente la lunghezza e la complessità del questionario a spingere verso il basso il tasso spontaneo di adesione ai sondaggi postali, ma anche elementi come l’interesse effettivo per il tema oggetto di analisi, le caratteristiche sociodemografiche del campione, le motivazioni fornite da chi progetta la ricerca e la sua credibilità/autorevolezza. Nell’ambito dei questionari auto-amministrati, come lo sono anche quelli dei sondaggi postali, l’evoluzione delle modalità di rilevazione ha portato alla messa a punto di metodologie di autointervista attraverso procedure software dedicate (sistemi CASI, ovvero Computer Assisted Self Interview). Ad esempio può accadere che l’intervistato possa rispondere utilizzando il proprio pc (PDE, ossia Prepared Data Entry), con spedizione e ritorno di un questionario all’istituto di ricerca che lo gestisce via e-mail, oppure facendo uso della tastiera di un telefono fisso multifrequenza o di uno smartphone (TDE, ovvero Touchtone Data Entry), o ancora fornendo a voce le proprie valutazioni dopo aver contattato un numero verde telefonico dedicato, dove un dispositivo automatico procede ad effettuare l’intervista (VRE, cioè Voice Recognition Entry). L’automatizzazione della fase dei controlli, sia di coerenza o compatibilità sia di verosimiglianza, sui dati rilevati fornisce a sua volta un contributo importante al miglioramento della qualità dell’indagine. Nelle indagini di mercato e nei sondaggi d’opinione che si avvalevano di tecniche di rilevazione tradizionali spettava ai revisori, terminata la fase di memorizzazione dei dati, il compito di individuare gli errori e, se possibile, correggerli secondo un prestabilito piano di compatibilità. Ogni correzione immessa aveva però una probabilità non nulla di dar luogo di nuovo ad un errore, anche se l’intervento avveniva seguendo presupposti ragionevoli di buona correzione. I questionari in formato elettronico presentano invece il vantaggio di gestire la fase dei controlli durante l’immissione stessa dei dati. Se si verificano errori di coerenza o di verosimiglianza tra le risposte un segnale di allerta (warning) indica all’intervistato il problema riscontrato, consentendo di gestire alla fonte gli errori medesimi. La funzione di revisione si riduce di conseguenza al minimo, a tutto vantaggio della qualità dei dati. La forma più recente di rilevazione di dati che si è andata affermando nel mondo dei sondaggi d’opinione e delle indagini di mercato è quella che sfrutta le potenzialità della rete Internet. A tutti gli effetti i sondaggi via Internet possono essere visti come la naturale evoluzione tecnologica dei più tradizionali sondaggi postali. Nella modalità attualmente più diffusa, infatti, le indagini prendono l’avvio con la spedizione di un messaggio, assimilabile ad una vera e propria lettera di presentazione della ricerca, presso la casella di posta elettronica (e-mail) delle unità statistiche (tipicamente persone o aziende) designate a far parte del campione. All’interno del messaggio viene data indicazione del sito, con relativo indirizzo web, nel quale è posizionato online un questionario predisposto in formato elettronico. Il destinatario della comunicazione è sollecitato a collegarsi alla rete Internet aprendo il questionario mediante apposito browser di navigazione e poi compilandolo. Di norma nella prima parte del questionario è riprodotta una sintesi della presentazione della ricerca, con l’obiettivo di assicurare al rispondente di essersi collegato al sito desiderato, di ribadire le finalità dell’indagine e di fornire alcune semplici istruzioni per la corretta compilazione e per l’eventuale ricorso a forme di help on-line. Le risposte vengono inserite direttamente dall’intervistato all’interno del form che appare sullo schermo del dispositivo in uso e sono automaticamente memorizzate in un database abbinato al file che contiene il questionario. Il sistema di rilevazione così organizzato prende il nome di CAWI (Computer Assisted Web Interview). I tassi di partecipazione all’indagine in genere si rivelano più elevati di quelli tipici dei sondaggi postali, pur se inferiori rispetto a quelli che contraddistinguono le modalità di rilevazione che prevedono la presenza di un intervistatore. I vantaggi e gli svantaggi di questa metodologia di rilevazione sono conseguenza diretta del mezzo utilizzato. Gli aspetti positivi rispetto alle forme tradizionali hanno Pag. 15 a 83 territoriale delle unità statistiche è in grado di aumentare l’efficienza degli stimatori della maggior parte delle variabili studiate. Questo spiega perché nella pratica si tende molto spesso a privilegiare proprio i criteri di stratificazione di tipo territoriale; tra l’altro si tratta di una ripartizione delle unità poco variabile nel tempo e particolarmente comoda da effettuare prima della formazione del campione. Il campione stratificato di tipo proporzionale riproduce la stessa composizione della popolazione in termini di dimensione degli strati. Ogni unità ha una probabilità di inclusione nel campione pari alla frazione di campionamento dello strato di appartenenza, che in questo caso è uguale per tutti gli strati (𝑓 = 𝑓 = 𝑝𝑒𝑟 𝑜𝑔𝑛𝑖 ℎ = 1,2, … , 𝐿). Ciò significa che si campiona di più dagli strati più numerosi in popolazione (𝑛 = 𝑛𝑊 ). In questo modo il campione che si ottiene è definito autoponderante, nel senso che per costruire gli stimatori di popolazione non è necessaria una ponderazione a posteriori dei dati. Si può dimostrare infatti che la media campionaria, ottenuta come media aritmetica semplice dei valori osservati presso l’intero campione, coincide con la media aritmetica ponderata delle medie dei vari strati. Lo stesso discorso vale per la stima dei totali e delle proporzioni o percentuali: non è necessario calcolare stime strato per strato per ottenere poi quelle globali. In altri termini, l’allocazione proporzionale del campione consente di ignorare la stratificazione in fase di produzione delle stime, semplificando i calcoli. L’applicazione di frazioni di campionamento differenti nei diversi strati è, invece, preferibile in caso di maggiore variabilità del fenomeno oggetto di studio in alcuni strati rispetto ad altri. Al fine di produrre stime più efficienti, negli strati a maggiore variabilità si può intenzionalmente applicare una frazione di campionamento maggiore. Il campione stratificato di tipo ottimale privilegia, dunque, in fase di allocazione della numerosità campionaria, quegli strati per i quali sia nota l’esistenza di una maggiore dispersione dei valori per la variabile oggetto di studio. Se, infatti, sono disponibili informazioni e conoscenze a priori sul diverso ordine di grandezza della variabilità della caratteristica d’interesse negli strati, è logico selezionare una maggior quantità di unità campionarie dagli strati con maggiore variabilità anziché da quelli di consistenza numerica più elevata. Si può affermare quindi che in questo caso la frazione di campionamento 𝑓 cambia da strato a strato ed è direttamente proporzionale alla variabilità dello stesso. In termini puramente numerici alcuni strati risulteranno sovra rappresentati ed altri sottorappresentati. Le unità della popolazione non avranno di conseguenza uguale probabilità di selezione, e perciò nello stimare i valori medi, i totali o le proporzioni delle variabili d’interesse si dovrà ricorrere a schemi di ponderazione. I pesi verranno determinati a partire dalle probabilità di inclusione che, sebbene differenti, saranno comunque note per tutte le unità. Dunque, secondo l’allocazione ottimale di Neyman, la numerosità campionaria di strato è direttamente proporzionale, oltre che al peso di strato 𝑊 , alla variabilità di strato espressa da 𝑆 : 𝑛 = 𝑛 ∗ 𝑊 𝑆 ∑ 𝑊 𝑆 I vantaggi del campionamento stratificato sono sicuramente un guadagno in termini di efficienza rispetto al campionamento causale semplice, la possibilità di stimare le variabili in sottopopolazioni di particolare interesse per gli scopi della ricerca e la riduzione della probabilità di estrazione di campioni poco rappresentativi della popolazione obiettivo. L’unica incognita di questo metodo di campionamento probabilistico è che se le variabili ausiliari non sono di buona qualità (sufficientemente correlate con il fenomeno oggetto di studio), ne può derivare una perdita di efficienza. Il campione stratificato può essere realizzato ricorrendo anche ad un criterio di allocazione non proporzionale e non ottimale. Questo avviene soprattutto quando si ha interesse a fornire stime attendibili non solo a livello dell’intera popolazione obiettivo, ma anche per i singoli strati, che in questo caso svolgono il ruolo di Pag. 16 a 83 sottodomini di riferimento. Così, se la variabile di stratificazione considerata è di tipo territoriale (ad esempio la regione di residenza dei consumatori) nell’ambito di un’indagine nazionale, possiamo desiderare che le stime dei parametri d’interesse siano statisticamente affidabili anche a livello delle singole regioni. Per far sì che ciò si verifichi potrebbe rivelarsi indispensabile fissare una numerosità campionaria minima da selezionare in ciascun strato, sovra campionando evidentemente da alcuni strati ogniqualvolta un criterio di allocazione puramente proporzionale non consenta di rispettare il vincolo indicato. In che cosa consista la stratificazione e quali vantaggi sia in grado di offrire è utile chiarirlo ulteriormente con un esempio. Per selezionare un campione di negozi di un grande centro urbano avendo a disposizione elenchi completi degli esercizi commerciali potrebbe essere utile raggruppare i punti di vendita secondo la loro ubicazione (quartiere), oppure in base alle modalità di gestione del negozio (distinguendo quelli tradizionali da supermercati, hard discounts, negozi specializzati o di altro tipo), oppure facendo riferimento ad entrambi i criteri o ad altri ancora. In tal modo si formeranno gruppi di esercizi commerciali omogenei rispetto al criterio di raggruppamento prescelto, denominati strati, da ognuno dei quali sarà possibile estrarre in modo indipendente un campione casuale semplice. Raggruppando i negozi secondo l’ubicazione e la modalità di gestione il vantaggio potrebbe essere duplice, nel senso che il criterio geografico renderà le successive operazioni di rilevazione più agevoli e quello per tipo di gestione consentirà di identificare sottopopolazioni contraddistinte da una più ridotta variabilità di particolari caratteristiche organizzative ed economiche. Campionamento a grappoli. Nel campionamento a grappoli, la lista degli N elementi è suddivisa in grappoli, ciascuno rappresentativo della popolazione, ovvero tale da riprodurre la variabilità del carattere di interesse nella popolazione. Si procede quindi alla seleziona casuale di un numero di grappoli e si includono nel campione tutti gli elementi a essi appartenenti. Idealmente i grappoli devono essere individuati in modo che la variabilità del parametro da stimare sia alta entro i grappoli e bassa tra i grappoli. Questo tipo di campionamento è utilizzato principalmente per esigenze organizzative: infatti, spesso i grappoli sono definiti sulla base di raggruppamenti realmente esistenti come città, quartieri, edifici, famiglie. Un altro schema di campionamento fra i più utilizzati è il cosiddetto campionamento casuale a grappoli (cluster sampling), la scelta del quale è suggerita dalle caratteristiche della popolazione o imposta, in qualche caso, da esigenze operative. La sua utilizzazione è tuttavia possibile a condizione che la popolazione sia suddivisa o suddivisibile in sottoinsiemi o segmenti di elementi legati da vincoli di contiguità spaziale o di altro tipo. Ogni grappolo deve riprodurre quanto più possibile fedelmente la variabilità rispetto alla caratteristica d’interesse che si ritrova nell’intera popolazione. Dunque, per definizione i grappoli, all’opposto degli strati, devono risultare fortemente eterogenei al loro interno ed omogenei tra loro. Il campione viene in questo caso realizzato selezionando casualmente alcuni dei grappoli che sono poi sottoposti integralmente a rilevazione, oppure a partire dai quali si procede ad un’ulteriore selezione campionaria di unità statistiche. Per realizzare, come suggerito nell’esempio precedente, un campione di negozi di un centro urbano, qualora non si disponga di un elenco degli stessi si potrà suddividere il territorio in zone di piccola dimensione (grappoli) che si presume contengano pressappoco lo stesso numero di negozi o di abitanti, oppure ricorrere alla partizione del territorio comunale per sezioni di censimento (che presentano per l’appunto tale caratteristica). Successivamente si potrà procedere alla selezione casuale di un dato numero di grappoli e quindi alla rilevazione delle informazioni che interessano in tutti i negozi reperibili al loro interno. Dunque, lo schema di campionamento a grappoli prevede: 1) l’estrazione casuale di alcuni grappoli e 2) l’analisi completa di tutte le unità in essi contenute. Può essere più efficiente della stratificazione? In teoria, se i grappoli fossero eterogenei al loro interno e omogenei tra essi, ma nella realtà in genere si verifica il contrario. Per finire, risulta vantaggioso il campionamento a grappoli quando i grappoli costituiscono una naturale aggregazione delle unità finali per le quali invece non si possiede una lista. Un ulteriore vantaggio è dato dal fatto che effettuare la rilevazione solo su alcuni grappoli è molto meno dispendioso rispetto al campionamento casuale semplice, soprattutto se si rende necessario un contatto diretto e se le unità sono caratterizzate da dispersione sul territorio. Lo svantaggio è che in genere è meno efficiente: i raggruppamenti naturali di unità tendono ad essere omogenei al loro interno ed eterogenei tra loro. Campionamento a stadi. Ricordiamo infine il campionamento a stadi che può essere considerato come una variante del campionamento a grappoli. Esso viene utilizzato per rilevazioni campionarie di grandi dimensioni: una volta selezionati casualmente i grappoli (unità di primo stadio), si procede alla selezione casuale soltanto di una parte delle unità elementari presenti nel grappolo (unità di secondo stadio). Rientrano in questa tipologia molte delle indagini ISTAT con copertura nazionale, nelle quali i Comuni sono Pag. 17 a 83 le unità di primo stadio e le famiglie registrate nelle Anagrafi dei Comuni sono le unità del secondo stadio. L’adozione di questa tecnica si giustifica per i vantaggi organizzativi e per la conseguente riduzione dei costi dell’indagine. Un punto a sfavore è rappresentato dalla complessità dei metodi di stima dei parametri e, in alcuni casi, dal fatto che non tutti gli stimatori godono delle proprietà desiderabili. Il campionamento a due o più stadi si adatta soprattutto alle grandi rilevazioni come, ad esempio, le indagini nazionali sulle forze di lavoro, oppure sulle spese delle famiglie o ancora sulla audience dei principali mezzi di comunicazione di massa. In questi casi è preferibile estrarre dapprima un gruppo di comuni, che rappresentano grappoli di unità elementari, e selezionare successivamente da ciascuno di questi un numero prestabilito di famiglie. In questo modo, oltre ad ovviare alle difficoltà connesse con la formazione della lista, si può conseguire un vantaggio sul piano organizzativo in quanto le unità da intervistare non sono disperse su tutto il territorio, ma localizzate solo in alcuni comuni. Ciò comporterà una limitazione degli spostamenti dei rilevatori e una riduzione dei costi dell’indagine sul campo. Va osservato, a questo proposito, che se i grappoli non sono sufficientemente omogenei tra loro, i vantaggi organizzativi potrebbero essere attenuati o anche annullati dall’elevata variabilità campionaria delle stime. Tale inconveniente potrà essere superato ricorrendo alla stratificazione delle unità del primo stadio, come in effetti avviene nelle indagini nazionali citate in precedenza. Noi vorremmo che le unità contenute nel primo stadio fossero più eterogenee possibili, perché a queste noi chiediamo di rappresentare tutta la popolazione. Di conseguenza, maggiore è l’omogeneità all’interno del primo stadio, maggiore è l’inefficienza del campionamento a più stadi. DI norma si verifica che le unità del primo stadio sono omogenee al loro interno ed eterogenee tra esse. Di conseguenza, il campionamento è più stadi risulta meno efficiente del campionamento casuale semplice. La determinazione della dimensione campionaria nei piani di campionamento probabilistico. (Dispensa paragrafo 4) Al crescere della dimensione del campione crescono anche i costi dell’indagine. Nella fase di progettazione è importante, quindi, fissare la numerosità del campione cercando di salvaguardare la massima precisione delle stime compatibile con il limite di spesa prestabilito. In alternativa è possibile calcolare la spesa minima necessaria per conseguire una prestabilita precisione ad un determinato livello di fiducia. Specificare la precisione significa di fatto fissare il grado di approssimazione (o margine di errore) che si è disposti ad accettare in relazione agli obiettivi conoscitivi dell’indagine. Ovviamente quanto più un campione è grande tanto più sono attendibili le stime; ma a prescindere da questa osservazione del tutto intuitiva, la scelta più conveniente dell’ampiezza del campione è uno dei compiti principali della teoria dei campioni, al centro della quale viene trattato un tema di risparmio di risorse. Il problema da risolvere è quello di decidere quale sia l’ampiezza più piccola che soddisfi specifici requisiti di precisione delle stime stabiliti a priori e dipendenti dall’oggetto dell’indagine e dalle esigenze di chi utilizza i risultati. Indicare la precisione delle stime vuole dire fissare il margine di errore che si è disposti a tollerare e, al tempo stesso, un grado di fiducia o di confidenza, ovvero la probabilità che la stima si collochi all’interno di un intervallo definito appunto dai margini di errore che si ritengono tollerabili. Per ogni tipo di piano di campionamento e per ciascun specifico parametro da stimare (una proporzione, una percentuale, un valore medio, un totale, ecc.) la teoria dei campioni fornisce relazioni matematiche per il calcolo della numerosità campionaria. Di conseguenza la dimensione n del campione può essere determinata in modo univoco mediante formule appropriate, una volta stabilito il piano di campionamento, la dimensione della popolazione di riferimento, la grandezza dell’errore che si è disposti a tollerare e il grado di fiducia che l’accompagna (nella realtà operativa livelli di fiducia pari al 95 o al 99 per cento vengono considerati di pratica certezza) nel quadro della determinazione dell’intervallo di confidenza di un parametro incognito. Viceversa, se sono prefissate le modalità del campionamento, la dimensione della popolazione e la numerosità del campione, imposta ad esempio da un vincolo di spesa complessiva da non superare, grazie alle stesse formule sono calcolabili gli errori massimi corrispondenti a diversi gradi di fiducia. In questo caso è possibile ovviamente scegliere fra combinazioni alternative delle due grandezze; ma se il campione è piccolo si riscontra non di rado un margine di errore molto elevato e un corrispondente grado di fiducia relativamente basso. Pag. 20 a 83 Poiché i valori di N, θ e 𝑧 ⁄ sono noti o prefissati, per risolvere le equazioni è indispensabile un valore per la varianza 𝜎 , di solito a sua volta non conosciuta. Per rendere operativa la relazione trovata potrebbe quindi essere utile una stima preliminare della variabilità del carattere, proveniente ad esempio da conoscenze a priori disponibili sulla popolazione in questione, perché già studiata in passato, o su popolazioni analoghe. Un’altra possibilità è quella di far uso di una stima della varianza ottenuta nella fase di pre-test del questionario, quando una versione preliminare di quest’ultimo viene sottoposta al vaglio di un piccolo campione ragionato di intervistati, in genere selezionato per elementi tipici o per elementi estremi. Una terza soluzione sfrutta l’esistenza di una relazione nota tra lo scarto quadratico medio σ e il campo di variazione (range) CV di una variabile; è infatti: σ = CV 2 da cui segue che la varianza 𝜎 è al più uguale a 𝐶𝑉 /4. Se nell’equazione si sostituisce proprio questo valore si perviene ad una valutazione prudenziale della numerosità campionaria compatibile con l’assunto di massima variabilità teorica del carattere. Ragionando in questo modo il problema di determinare una stima preliminare per la varianza si trasforma in realtà in quello di indicare il valore del campo di variazione, che a sua volta generalmente non sarà noto. E poiché tale campo di variazione coincide con la differenza fra l’intensità massima e quella minima del carattere della popolazione, il tutto si riconduce alla stima delle intensità massima e minima sulla base di ragionevoli congetture. Finora abbiamo chiarito che la dimensione n di un campione casuale semplice può essere calcolata in modo univoco mediante formule appropriate una volta stabiliti il piano di campionamento, la dimensione della popolazione, la grandezza dell’errore che si è disposti a tollerare e il grado di fiducia che l’accompagna, nel quadro della determinazione dell’intervallo di confidenza di un parametro incognito. Viceversa, se sono prefissate le modalità del campionamento, la dimensione della popolazione e la numerosità del campione, imposta ad esempio da un ammontare di spesa complessiva dell’indagine da non superare, grazie alle stesse formule sono calcolabili gli errori massimi corrispondenti a diversi gradi di fiducia. In questo caso è possibile ovviamente scegliere fra combinazioni alternative delle due grandezze; ma se il campione è piccolo, si riscontra non di rado un margine di errore molto elevato e un grado di fiducia relativamente basso. Quando si utilizza un piano di campionamento diverso da quello casuale semplice, come ad esempio quello stratificato, pur seguendo sostanzialmente la stessa linea di ragionamento si perviene ad espressioni analitiche più complesse di quelle appena riprodotte. Se indichiamo con 𝑃 la proporzione oggetto di studio in un generico strato della popolazione, il campionamento stratificato per attributi porta alla seguente relazione con riferimento alla dimensione del campione: 𝑛 = ∑ 𝑊 𝑃 (1 − 𝑃 ) (𝜃 𝑧 /⁄ ) 1 + ∑ 𝑊 𝑃 (1 − 𝑃 ) 𝑁 (𝜃 𝑧 /⁄ ) Dove i simboli N, 𝑊 , 𝜃 e 𝑧 / assumono il significato già visto. Se indichiamo poi con 𝜎 la varianza del carattere d’interesse in ciascun strato della popolazione, il campionamento stratificato per variabili consentirà di pervenire alla seguente equazione: 𝑛 = [∑ 𝑊 𝜎 ] (𝜃 𝑧 /⁄ ) 1 + ∑ 𝑊 𝜎 𝑁 (𝜃 𝑧 /⁄ ) Quanto esposto finora può essere chiarito meglio illustrando alcune possibili soluzioni per il caso di interesse il cui enunciato è stato proposto all’inizio della dispensa. Il problema è quello di progettare un’indagine campionaria per stimare il numero di famiglie già in possesso di una lavastoviglie a Bologna. Conoscendo il numero totale delle famiglie residenti, si tratta più semplicemente di stimare la proporzione di quelle che possiedono l’elettrodomestico in questione. Come è stato osservato in precedenza, la formazione di un campione di famiglie per quote richiederebbe di reperire in primo luogo informazioni statistiche utili alla determinazione preventiva di tali quote. A questo riguardo va tenuto presente che sulla domanda di lavastoviglie possono incidere il livello del reddito di cui la famiglia dispone e le caratteristiche del nucleo familiare (ampiezza, età e sesso dei singoli componenti e condizione professionale di quelli attivi). Le quote dovrebbero pertanto comprendere famiglie tendenzialmente omogenee rispetto a questi aspetti. Numerose ricerche hanno evidenziato che nei centri urbani l’insediamento dei gruppi sociali è influenzato da fattori demografici, economici, culturali, talvolta anche puramente psicologici, che agiscono come forze attrattive o repulsive dando luogo ad una distribuzione Pag. 21 a 83 territoriale tendenzialmente stratificata. Di conseguenza, è legittimo supporre che l’adozione di un criterio di raggruppamento territoriale assicurerebbe una suddivisione delle famiglie in sottoinsiemi sufficientemente omogenei. Possiamo quindi considerare la città di Bologna suddivisa in tre zone (Centro storico, Nord-ovest e Sud-est) che varie indagini hanno segnalato come tipiche di insediamenti demografici economicamente e socialmente abbastanza diversificati (si veda al proposito la parte superiore della tabella 2). Si è portati a ritenere che qualora il campione per quote riproduca fedelmente la distribuzione dei nuclei familiari nella popolazione di riferimento in base ad aspetti quali il quartiere di residenza o la tipologia familiare le valutazioni che si ottengono siano sufficientemente attendibili. Non possono però essere accompagnate – vale la pena ribadirlo – da alcuna indicazione sul margine massimo d’errore ad esse associato e sul grado di fiducia che le contraddistingue. Nel caso allo studio sarebbe dunque indispensabile acquisire dati aggiornati sulla distribuzione delle famiglie bolognesi secondo le caratteristiche appena ricordate, ad esempio ricorrendo alle fonti demografiche ufficiali che l’amministrazione comunale provvede a pubblicare. In questo modo resterebbero fissate automaticamente le quote e il campione dovrebbe presentare proprio le frequenze relative di famiglie, rispetto alle modalità dei caratteri prescelti, che caratterizzano l’intera popolazione. L’individuazione delle famiglie da contattare andrebbe poi delegata agli intervistatori che, nel rispetto del vincolo delle quote assegnate, potranno decidere arbitrariamente in proposito. In questa situazione è del tutto evidente che il dimensionamento del campione non sarebbe vincolato al margine d’errore richiesto per le stime e al livello desiderato di confidenza. Esso dipenderà soprattutto da valutazioni connesse ai costi di intervista (ad esempio in termini di finanziamento per l’attività di rilevazione sul campo, diretta o telefonica) e ai tempi richiesti per disporre dei risultati. Non va peraltro esclusa l’eventualità che, a parità di risorse assegnate per la fase di rilevazione, il campione di famiglie così selezionato possa risultare di ampiezza maggiore rispetto a quello che venga progettato secondo criteri probabilistici. Se si decide di selezionare un campione casuale semplice e di effettuare interviste, dirette o telefoniche, sulla base delle informazioni fornite dalla tabella 2 è possibile stimare indicativamente l’ordine di grandezza del campione. La determinazione della numerosità campionaria richiede, dopo aver chiarito a quale piano di campionamento si intenda fare ricorso, che: 1 si valuti preliminarmente, ad esempio tramite un piccolo campione ragionato, la variabilità del carattere oggetto di stima, indicazione indispensabile per poter applicare le formule richiamate in precedenza; 2 sia fissata la precisione o approssimazione desiderata, ovvero l’ampiezza dell’intervallo di stima cui corrisponde un livello di confidenza da scegliere in pratica fra il 95 e il 99 per cento, cioè fra valori che rendono ragionevolmente bassa la probabilità di costruire intervalli in cui non risulti compreso il vero valore del parametro di interesse. Quando l’obiettivo principale dell’indagine è la stima di una proporzione o di una percentuale si è già ricordato che si può assumere per prudenza una stima iniziale del parametro incognito P pari a 0,50, corrispondente al caso in cui è massima la varianza dello stimatore p. Inoltre, se si fissa una precisione del 3 per cento con un grado di fiducia del 95 per cento, la tabella 1 indica che in corrispondenza di una popolazione come quella della città di Bologna (dell’ordine di 200.000 famiglie) la dimensione del campione risulterebbe pari a 1.061 casi. Tale dimensione, alle condizioni proposte, risulta maggiore di tutte quelle che corrispondono a qualunque altro valore assunto come stima preliminare di P. L’impiego di piani di campionamento più complessi di quello appena ipotizzato consente guadagni di efficienza, ma richiede che siano note alcune informazioni sulla popolazione o che siano accettati i rischi connessi alla formulazione di alcune ipotesi. L’efficienza relativa fra piani di campionamento diversi può essere valutata ricorrendo al rapporto fra la varianza dello stimatore ottenuta con il piano più complesso e quella Pag. 22 a 83 originata da un campione casuale semplice della stessa numerosità (design effect o deff). Rispetto al caso del campionamento per quote, occorre precisare che per il campionamento casuale semplice risultano indispensabili la disponibilità della lista di base dalla quale estrarre le unità campionarie e la scelta della strategia da adottare per la sostituzione delle unità non reperibili o che rifiutano l’intervista. Come già detto le liste in base alle quali ricostruire i nuclei familiari possono essere ad esempio quelle elettorali, o in alternativa si può fare ricorso agli elenchi delle utenze telefoniche residenziali. Con l’obiettivo di ottenere guadagni di efficienza e per i vantaggi conseguibili nell’organizzazione della rilevazione, si può considerare di progettare in alternativa un piano di campionamento stratificato procedendo all’estrazione di unità statistiche per ciascuno dei tre strati di famiglie corrispondenti alle tre zone della città richiamate nella tabella 2. Per la determinazione della numerosità campionaria occorre fissare la precisione della stima, ovvero l’ampiezza dell’intervallo centrato sul valore della stima puntuale che corrisponde ad un dato livello di confidenza. Questo richiede di avere un’idea abbastanza precisa della variabilità del carattere che costituisce oggetto di esame in ciascun strato. Stime preliminari delle proporzioni di famiglie in possesso di una lavastoviglie nei tre strati potrebbero essere ottenute tramite un’indagine pilota, oppure riprese da indagini precedenti, o ancora dedotte ricorrendo all’esperienza di testimoni privilegiati. In un caso come questo appare plausibile utilizzare informazioni desumibili dall’indagine ISTAT sulle spese delle famiglie, riguardanti la situazione accertata nell’insieme dei comuni localizzati nella stessa regione relativamente alla classe di età modale del capofamiglia (ossia quella che risulta prevalente in ciascuna delle tre zone della città individuate: 55-64 anni nel Centro storico, 45-54 anni nel Nord-ovest e 35- 44 anni nel Sud-est). Per l’insieme delle famiglie residenti la stima preliminare della percentuale di possesso è pari al 30,1 per cento. Nei tre strati tale stima assume invece i valori riprodotti nella tabella 3. Pertanto, se si sfruttasse questa informazione iniziale nel contesto già discusso poco fa del campionamento casuale semplice per attributi, applicando la formula già vista: 𝑛 = 𝑧 ⁄ 𝑁 (𝑁 − 1)𝜃 𝑃(1 − 𝑃) + 𝑧 ⁄ ad un livello di precisione del 3 per cento e con un grado di fiducia del 95 per cento si determinerebbe una dimensione campionaria n pari a 893 unità, inferiore a quella di 1.061 casi stimata prudenzialmente in precedenza. Nel contesto del piano di campionamento stratificato, dopo aver determinato la numerosità campionaria complessiva la sua ripartizione tra gli strati può essere effettuata come già segnalato secondo schemi diversi. In questo caso specifico si potrà fare riferimento al metodo dell’allocazione ottimale (o di Neyman) che permette di rendere minima la varianza dello stimatore a parità di dimensione campionaria complessiva. Sempre ad un livello di precisione della stima per l’intera popolazione pari al 3 per cento e con un grado di fiducia del 95 per cento, applicando la formula relativa al campionamento stratificato per attributi: 𝑛 = ∑ 𝑊 𝑃 (1 − 𝑃 ) (𝜃 𝑧 /⁄ ) 1 + ∑ 𝑊 𝑃 (1 − 𝑃 ) 𝑁 (𝜃 𝑧 /⁄ ) E la dimensione del campione sarebbe di 851 unità. La strategia di stratificazione descritta finora non consente quindi di realizzare economie di spesa molto importanti: rispetto all’ipotesi di ricorrere al campionamento casuale semplice la numerosità campionaria scenderebbe solamente da 893 a 851 casi statistici. Ciò è attribuibile essenzialmente alla non eccessiva eterogeneità delle tre sub-popolazioni considerate in ordine al possesso (o meno) di lavastoviglie. In effetti, le differenze fra le proporzioni di famiglie con lavastoviglie in ciascun gruppo (si vedano di nuovo le stime preliminari ipotizzate nella tabella 3) non sono molto evidenti. Una volta stabilita la dimensione campionaria complessiva, il numero di unità da prelevare da ciascun strato si ottiene poi attraverso la formula: 𝑛 = 𝑛 ∗ 𝑁 𝑃 (1 − 𝑃 ) ∑ 𝑁 𝑃 (1 − 𝑃 ℎ) Con riferimento al primo strato (Centro storico) si avrà: 𝑛 = 134 Pag. 25 a 83 aperte si rivelano spesso più affrettate e quindi meno complete, rispetto a quelle ottenute in un’indagine che preveda l’auto compilazione del questionario. Ciò è dovuto alla maggiore rapidità di esecuzione dell’intervista, che lascia meno tempo a disposizione per riflettere. Se nei questionari auto-amministrati le domande chiuse non richiedono accorgimenti particolari, nei questionari destinati ad interviste telefoniche va prestata attenzione anche all’ordine in cui compaiono le modalità di risposta, a causa di una tendenza dei rispondenti a concentrarsi sulle prime o sulle ultime alternative, qualora queste vengano presentate solo verbalmente, e al loro numero, che deve essere il più possibile limitato affinché l’intervistato riesca a ricordarle tutte. Sempre con riferimento alle domande chiuse, particolarmente per quelle cosiddette di tipo non fattuale, cioè relative alla ricognizione di atteggiamenti, valutazioni ed opinioni personali, è importante decidere sull’inserimento fra le alternative di risposta di una modalità intermedia, genericamente identificata come neutrale, per evitare di forzare l’individuo a prendere comunque una posizione. In parte analoga è la scelta relativa all’inserimento della modalità “non so, non ho un’opinione al proposito”. Si tratta, in entrambi i casi, di risposte che spontaneamente vengono fornite di rado, ma che se presentate ottengono un’elevata proporzione di segnalazioni. Viene chiamata domanda filtro quella dalla quale dipendono alcuni quesiti successivi o un’intera sezione del questionario. La domanda filtro mira ad accertare se il rispondente possiede o meno una caratteristica o un requisito che lo mettono in condizione di poter fornire indicazioni per altri quesiti di approfondimento sullo stesso tema. Nell’ambito di un’indagine sulle abitudini di lettura delle famiglie italiane, la domanda: La vostra famiglia acquista ogni giorno un quotidiano?  sì  no svolge il ruolo di filtro rispetto a domande volte ad appurare eventualmente la testata prescelta e il gradimento nei confronti di questa, alle quali sarà chiamato a rispondere solo chi abbia segnalato la modalità sì. Dunque, per quanto riguarda la forma delle domande (risposte), si distinguono: 1 Domande chiuse: costringono l’intervistato a scegliere tra modalità predefinite. Sono facili da processare ma limitanti per l’espressione del pensiero dell’intervistato. In alcuni casi si chiede all’intervistato di esprimere soltanto una risposta (domanda chiusa a risposta unica); in altri si dà la possibilità di fornire più risposte (domanda chiusa a risposta multipla); 2 Domande aperte: permettono all’intervistato di esprimere compiutamente il proprio pensiero. Richiedono tempi lunghi di elaborazione e digitalizzazione. 3 Domande filtro: è un tipo di domanda chiusa che ha la funzione di convogliare soltanto una parte dei rispondenti verso domande successive. La domanda filtro è utilizzata quado le unità di analisi dell’indagine non sono omogenee, per cui determinate informazioni devono (o possono) essere rilevate solo su un sottoinsieme. Un’altra questione di importanza primaria per quanto riguarda la formulazione delle domande chiuse chiama in causa il livello di misurazione delle modalità di risposta che può essere di tipo nominale, ordinale, ad intervallo o a rapporti. Una principale classificazione dei caratteri statistici prevede la distinzione tra:  Caratteri quantitativi: che derivano da misurazioni o operazioni di conteggio (es. reddito, n. di addetti);  Caratteri qualitativi: in cui è assente il concetto di quantità (es. condizione occupazionale). Una classificazione più fine è fondata sulla scala di misurazione: da questa dipendono le operazioni che si possono compiere. Una delle difficoltà maggiori del questionario consiste nel predisporre i quesiti in modo che le risposte siano traducibili in misure. In alcuni casi il passaggio è immediato, come quando si chiede all’intervistato di comunicare l’età o il peso o l’ammontare mensile di spesa per consumo, tutti caratteri per i quali sono naturalmente presenti delle unità di misura. Molto più complessa è la misurazione di caratteri qualitativi, come percezioni, atteggiamenti, opinioni. Per la misurazione di queste dimensioni sono state ideate scale ad hoc che forniscono ordinamenti più che misurazioni vere e proprie. Le scale nominali assegnano un codice convenzionalmente numerico ad un oggetto, una proprietà o un concetto, al fine di identificare e classificare l’unità statistica sottoposta ad osservazione: sono quindi utilizzabili nel caso di caratteri qualitativi sconnessi. Si potrebbe attribuire, ad esempio, per quanto riguarda la ripartizione geografica di residenza di un intervistato il valore 1 in corrispondenza della modalità “Nord-ovest”, il valore 2 per il “Nord-est”, il valore 3 per il “Centro” e il valore 4 per il “Sud e Isole”, anche se si tratta di una codifica del tutto arbitraria. Queste modalità cioè sono semplici etichette, la loro successione è puramente convenzionale e non devono quindi essere elaborate algebricamente. Il confronto tra due unità statistiche consiste nel verificare se sono uguali o diverse rispetto a quel carattere. Le scale ordinali associano le risposte degli intervistati a categorie diverse, tra le quali esiste un ordinamento naturale: se una unità statistica viene classificata in una Pag. 26 a 83 categoria superiore rispetto ad un’altra, ciò significa che possiede in misura maggiore la caratteristica osservata. Un esempio di carattere misurato su una scala di questo tipo è l’ordine di preferenza espresso da un consumatore rispetto a più marche di uno stesso prodotto. Le informazioni delle quali sono portatrici le scale ordinali risultano più articolate rispetto a quelle delle scale nominali, in quanto dal punto di vista statistico rendono possibile l’uso dei valori medi di posizione (quali mediana, quartili, ecc.) e di alcune misure di associazione, anche se come le precedenti non permettono l’applicazione di tecniche di analisi statistica multivariata. Il confronto tra due unità statistiche consiste qui nel verificare, dunque, se l’una ha modalità maggiore o minore dell’altra secondo quel carattere. Le scale ad intervallo sono tra quelle più frequentemente utilizzate. In genere i valori numerici sono assegnati in modo tale da indicare differenze nel grado di intensità di possesso di una proprietà o caratteristica, uniformemente per l’intero campo di variazione della scala. Per chiarire il punto in questione può essere utile un esempio. Immaginiamo che un ricercatore sia interessato a misurare il gradimento dei consumatori per un nuovo modello di scarpe da basket, e che a tal fine sia utilizzato il seguente quesito: Dopo aver osservato le scarpe da basket della marca Nike disposte su questo tavolo, esprimete il vostro giudizio con un punteggio sulla seguente scala: 1 2 3 4 5 Molto negativo Negativo Né negativo né positivo Positivo Molto positivo La scala in questione è ad intervallo, nel senso che la differenza, ad esempio, tra il punteggio 2 (negativo) e il punteggio 3 (né negativo né positivo) è da ritenersi pressappoco la metà della differenza tra 3 e 5 (molto positivo). Le scale ad intervallo non prevedono lo zero assoluto, e pertanto non è corretto dire che una persona che abbia assegnato un punteggio pari a 4 avrà espresso un giudizio pari al doppio di quello indicato da una persona che abbia selezionato un punteggio pari a 2. In altri termini, non si dovrebbero rapportare tra loro i valori misurati su una scala ad intervallo, ma solo calcolarne le differenze. Questo rimane vero, ovviamente, anche quando i punteggi sulla scala comprendono il valore zero, perché si tratta pur sempre di un valore scelto arbitrariamente. Un’importante proprietà delle scale ad intervallo è di essere invarianti rispetto a trasformazioni lineari della forma 𝑦 = 𝑎 + 𝑏𝑥 , dove a è una costante, b un valore positivo, x il punteggio valutato sulla scala originaria e y quello sulla nuova scala trasformata. Tale proprietà permette, a partire dai dati rilevati, l’impiego di varie tipologie di misure statistiche di sintesi: il calcolo di valori medi, di indicatori di variabilità e di coefficienti di correlazione lineare, nonché l’applicazione di molteplici tecniche di analisi multivariata. Nelle ricerche che hanno come obiettivo l’accertamento di giudizi, opinioni o atteggiamenti si ottengono misurazioni su scale ad intervallo anche con altre procedure. Tra le più diffuse vi sono la scala di Likert e la scala a differenziale semantico. La scala di Likert, utilizzata per valutare l’atteggiamento di un intervistato nei confronti di una affermazione inserita nel corpo principale di una domanda, prevede l’uso di modalità distinte (di solito in numero dispari, cinque o sette) che esprimono l’intensità del grado di accordo o disaccordo con l’affermazione in questione. Per misurare l’atteggiamento nei confronti di una dieta alimentare si potrebbe formulare il quesito nella maniera seguente: Esprimete il vostro grado di accordo o di disaccordo con l’affermazione «controllare la quantità di grasso in una dieta è importante per mantenere uno stile di vita salutare», contrassegnando il numero corrispondente alla vostra reazione: 1 2 3 4 5 Fortemente in disaccordo In disaccordo Né d’accordo né in disaccordo D’accordo Completamente d’accordo La scala a differenziale semantico è caratterizzata a sua volta dalla definizione di coppie di aggettivi o proposizioni di significato contrapposto utilizzate come polarità estreme. All’intervistato si richiede di collocare la sua risposta lungo una scala che prevede un numero dispari di modalità (di solito cinque o sette). I due termini devono esprimere in modo preciso la differenza tra due sentimenti ben distinti (ad esempio insoddisfatto/soddisfatto, sgradevole/gradevole, insolito/normale, falso/vero, ecc.). L’intervistato interpreta il concetto contrassegnando la posizione che più riflette il suo modo di sentire. Ad ognuna delle posizioni si assegna poi un punteggio, ad esempio -3, -2, -1, 0, +1, +2, +3 nel caso siano sette: Pag. 27 a 83 Indicate la vostra opinione sulla presenza opzionale di una webcam Usb 3.0 in un personal computer portatile contrassegnando una posizione sulla seguente scala: Nelle indagini di mercato la scala a differenziale semantico è utilizzata spesso nelle indagini sull’immagine di marca e in quelle per lo sviluppo di nuovi prodotti. Questa scala, come del resto quella di Likert, in quanto ad intervallo consente di sommare tra loro le valutazioni e di effettuare il calcolo di misure statistiche quali la media aritmetica e la varianza. Uno degli aspetti più controversi nell’uso di scale di valutazione, riferite ad esempio al grado di soddisfazione o insoddisfazione di un individuo, oppure alla sua posizione di accordo o disaccordo nei confronti di affermazioni proposte, riguarda la ricerca di metodi adatti alla loro presentazione nel corso di un’intervista telefonica. A questo proposito le alternative più familiari sono due: 1 La prima consiste nel chiedere al rispondente di scegliere direttamente una delle posizioni lungo la scala; 2 La seconda, che utilizza un procedimento a due stadi, richiede prima un’indicazione sulla direzione dell’atteggiamento dell’individuo (soddisfatto; non soddisfatto; né l’uno né l’altro), poi una sull’intensità di questo (se insoddisfatto, in che misura: molto, poco, oppure posizione intermedia). Una scala di misura alternativa è quella a rapporti. Essa assegna valori numerici alle risposte in maniera tale che esista un valore zero, naturale e non arbitrario, e che i rapporti tra le posizioni nella scala abbiano anch’essi un significato reale e non convenzionale. Esempi di scale a rapporti sono quelli descritti di seguito.  Lunghezza di un segmento di retta (tramite il calcolo della distanza che separa l’origine del segmento di retta e il punto segnalato dall’intervistato su di questo, corrispondente all’intensità della sua posizione personale): esprimete la vostra soddisfazione sul corso di studio frequentato ponendo un segno sul seguente segmento di retta:  Valutazione comparativa rispetto ad un’alternativa assunta come base dei confronti (scala con punto di ancoraggio): Giudicate la gradevolezza del gusto delle seguenti marche di dentifricio con un punteggio numerico, ipotizzando che la marca Colgate sia valutata pari a 10:  Assegnazione e suddivisione di un punteggio fisso (di solito pari a 100) tra due o più alternative in base alla propria preferenza (scala a somma costante): Suddividete un totale di 100 punti tra le seguenti marche di personal computer, a seconda della vostra preferenza per ciascuna di esse: Come è stato osservato, i requisiti legati alle scale di misura condizionano in maniera diretta e immediata la possibilità di trattare analiticamente le informazioni rilevate. È opportuno ribadire che solo nel caso di scale ad intervallo o a rapporti è lecita l’applicazione ai dati della maggior parte delle tecniche di analisi statistica multivariata, utili al fine di esplorare le relazioni e sintetizzare il contenuto informativo presenti nei dati. Pag. 30 a 83 Gli errori non campionari e i controlli sulla qualità dei dati. (Dispensa paragrafo 6). È opinione diffusa che ottenere dati statistici di buona qualità nell’ambito dei fenomeni economici e sociali sia da considerare, per vari motivi, un obiettivo complesso da raggiungere. Gli errori nei quali si può incorrere, sia nel caso di una rilevazione per campione, probabilistico o meno, sia nel caso di una rilevazione esaustiva, sono di diversa natura ed origine, ma riconducibili principalmente a problemi di mancata osservazione delle unità da contattare e a problemi di corretta misurazione. Questi ultimi in particolare chiamano in causa il ruolo degli elementi che in vario modo interagiscono tra loro nel corso della realizzazione di un’indagine sul campo: strumenti di rilevazione, tecniche di raccolta delle informazioni, intervistati ed intervistatori (quando presenti). Tali errori, denominati non campionari, si sommano a quell’errore campionario (nelle rilevazioni basate su campioni probabilistici) al controllo del quale sono state dedicate numerose riflessioni nei paragrafi precedenti. Per valutare la qualità dei risultati di un’indagine sul campo, ovvero per giudicare la qualità di un processo statistico di misurazione, è necessario conoscere nel dettaglio le singole fasi dell’indagine, gli accorgimenti preventivi e le strategie adottate per evitare o identificare gli errori in cui si può incorrere e renderne minimi gli effetti. A differenza dell’errore campionario, controllabile a priori tramite gli strumenti della teoria delle probabilità, gli errori non campionari possono presentarsi in forme diverse ad ogni fase dell’indagine. È importante notare che essi si possono manifestare anche, e a volte con intensità maggiore, nelle rilevazioni censuarie. Questo significa che, al contrario dell’errore campionario, non sono controllabili in generale tramite l’aumento della dimensione del campione. Nelle indagini sul campo una delle principali scelte da operare riguarda proprio l’alternativa fra un campione di ampia dimensione che consenta di limitare l’incidenza dell’errore di campionamento e un campione più ridotto, ma tale da rendere più agevole il controllo delle operazioni di intervista e di raccolta delle informazioni. Il contenimento simultaneo di entrambi i tipi di errori è difficile per motivi legati a costi da sostenere e tempi di realizzazione; e, d’altra parte, è impossibile misurare preventivamente con un buon grado di approssimazione l’errore complessivo, o valutare il peso delle sue singole componenti, non essendo in generale noti i parametri della popolazione di riferimento. Per rendere più semplice l’esposizione conviene prendere in considerazione il caso del campionamento casuale semplice. In questo contesto, l’errore complessivo (Total Survey Error o TSE) di una statistica campionaria utilizzabile come stima del corrispondente parametro della popolazione, quale ad esempio la media aritmetica di una data variabile, è esprimibile come funzione della differenza fra la media incognita dell’intera popolazione e la media calcolata sul campione effettivamente osservato. Se indichiamo con:  𝑌 la media del carattere considerato nella popolazione;  𝑦 la media del campione effettivo, l’errore complessivo si può esprimere nel modo seguente: 𝑇𝑆𝐸 = 𝑓(𝑌 − 𝑦 ) Poiché il campione effettivamente osservato non corrisponde quasi mai al campione originariamente programmato, ossia a quello risultante dalla selezione dei casi dalla lista di riferimento, in conseguenza di errori presenti nella lista medesima, mancati contatti, rifiuti a collaborare o sostituzioni in itinere, l’errore complessivo si può scomporre in due componenti additive che rappresentano rispettivamente: 1 l’errore campionario, ossia la distanza della media del campione programmato in origine (𝑦 ) dal valore medio incognito della popolazione (𝑌); 2 gli errori non campionari, corrispondenti alla differenza tra la media del campione effettivamente realizzato (𝑦 ) e la media del campione originariamente programmato (𝑦 ). L’errore complessivo può essere pertanto riespresso nel modo seguente: 𝑇𝑆𝐸 = 𝑓 𝑌 − 𝑦 + 𝑓(𝑦 − 𝑦 ) Gli errori non campionari più frequenti nei risultati delle indagini e dei sondaggi per campione sono: a. gli errori di mancata osservazione; b. gli errori di misura o di osservazione. Gli errori di mancata osservazione sono configurabili come:  errori di mancata copertura, se dipendono dall’inadeguatezza della lista utilizzata per identificare gli elementi della popolazione da cui viene selezionato il campione; tale lista può risultare incompleta, non aggiornata o contenere duplicazioni nel caso non sia stata sottoposta a revisioni accurate e sistematiche;  errori di mancata risposta, derivanti dall’impossibilità di contattare alcune unità selezionate oppure dal rifiuto di parte di queste a partecipare all’indagine. A loro volta, gli errori di misura sono quelli che derivano dalla non coincidenza tra informazioni raccolte e valori “veri” dei caratteri riferiti ad ogni unità statistica, per l’effetto congiunto dell’operare di diversi attori e fattori che intervengono nel corso dell’indagine sul campo. Pag. 31 a 83 Da questo punto di vista si è soliti distinguere tra:  errori dovuti agli strumenti di rilevazione, ed in particolar modo al questionario, vale a dire errori originati da una formulazione ambigua o inappropriata di alcuni quesiti oppure da una loro successione inadeguata;  errori di risposta, riconducibili direttamente alla capacità di comprensione ed alla memoria degli intervistati, nonché alla loro consapevolezza e volontà di fornire informazioni veritiere;  errori specifici della tecnica di raccolta delle informazioni;  errori riconducibili al comportamento degli intervistatori, laddove ne sia previsto l’intervento, cioè errori che derivano dall’influenza esercitata sulle risposte dal modo in cui viene condotta l’intervista. Anche se il ricercatore non è mai in grado di eliminare gli errori non campionari, può tuttavia cercare di minimizzarne l’impatto, avvicinando il più possibile la procedura di indagine sul campo al modello del campionamento probabilistico; in questo modo aumenterà quella che viene chiamata accuratezza del campione. Se sembra abbastanza ovvio che un buon campione debba essere accurato e di ampiezza sufficientemente grande, non di rado però questi due obiettivi possono entrare in conflitto. Qualora si investa un budget consistente per migliorare la qualità della rilevazione, ad esempio tentando di contattare ripetutamente le persone selezionate e non reperibili, probabilmente saranno necessarie delle rinunce in termini di dimensione campionaria. D’altra parte, ha poco senso impegnare un budget ingente per realizzare un numero elevato di interviste su un campione chiaramente distorto. Il punto di equilibrio tra le risorse investite nell’accuratezza e quelle destinate ad aumentare la numerosità del campione dipende prevalentemente dall’obiettivo della ricerca. Se è di tipo descrittivo, come nel caso di studi finalizzati a stimare i valori medi o le proporzioni di singole variabili, allora è necessario che la stima avvenga su un campione il più possibile rappresentativo, che riproduca in piccolo le stesse caratteristiche della popolazione. Se invece l’obiettivo è piuttosto di tipo relazionale, cioè se l’indagine intende principalmente analizzare relazioni tra variabili, si potrebbe pensare di utilizzare anche un campione non perfettamente rappresentativo. Infatti, se esiste un legame tra una caratteristica di un gruppo di individui e una variabile d’interesse (ad esempio un comportamento), anche se questo gruppo risulta sottorappresentato nel campione non dovrebbe sussistere motivo di pensare che la relazione stimata risulti alterata, purché le unità campionate in questo insieme di individui siano effettivamente rappresentative del gruppo al quale appartengono. Se al contrario il gruppo è sottorappresentato perché le unità in esso originariamente selezionate e non partecipanti alla rilevazione presentano delle caratteristiche che portano sistematicamente alla mancata intervista, allora ci saranno con buona probabilità distorsioni anche sulle relazioni stimate tra variabili. Errore di mancata copertura. Per ottenere da un campione informazioni di buona qualità è necessario che si adotti un procedimento probabilistico di selezione delle unità. Il rispetto di questa condizione esige ovviamente la disponibilità di una lista che consenta di stabilire una corrispondenza biunivoca perfetta fra gli elementi in essa contenuti e le unità della popolazione obiettivo, lista che non di rado risulta incompleta o contiene informazioni non aggiornate oppure duplicazioni, dando origine appunto al cosiddetto errore di mancata copertura. Come si è accennato, questo problema si pone generalmente (ma non esclusivamente) quando si utilizzano elenchi di numeri telefonici residenziali o archivi commerciali derivanti da questi, per l’ovvia esclusione di coloro (famiglie, aziende, studi professionali, ecc.) che non dispongono più di una linea telefonica fissa (avendo in genere optato per una di tipo mobile), oppure hanno scelto di non comparire in elenco per motivi legati alla tutela della propria privacy, o ancora hanno sottoscritto un abbonamento residenziale con un operatore telefonico diverso da Telecom Italia. La mancata copertura assume quindi una rilevanza particolare, tanto da costituire anche nel prossimo futuro uno dei fattori determinanti per la realizzazione di indagini telefoniche. Problemi di rappresentatività si pongono, d’altra parte, anche per gli archivi delle imprese (come i Registri delle Imprese, gli Albi delle Imprese artigiane, quelli delle Società cooperative, ecc.), molto spesso inadeguati per la presenza di unità non più attive, di duplicazioni che fanno seguito a trasformazioni di impresa, oppure per l’esclusione di unità generalmente di piccola e piccolissima dimensione. Conviene a questo punto soffermare ancora l’attenzione sulle liste degli abbonati alla telefonia fissa che sono, assieme a quelle elettorali, fra le più utilizzate. La diffusione della telefonia residenziale in Italia risulta differenziata sia territorialmente sia sotto il profilo economico e sociodemografico. I non utenti costituiscono tendenzialmente uno strato particolare della popolazione, contraddistinto da condizioni economiche e culturali più favorevoli, da un più elevato grado di istruzione, da una dimensione media del nucleo familiare tipicamente più ridotta, da tipologie di attività lavorativa svolta che comportano una maggiore mobilità sul territorio. Per questa ragione l’impiego di liste telefoniche (non limitato evidentemente ai soli casi in cui si ricorra all’intervista telefonica) può determinare la sottostima di alcuni particolari segmenti della popolazione obiettivo. L’entità della distorsione che si produce dipende, tuttavia, dal Pag. 32 a 83 legame fra le variabili considerate di interesse e le caratteristiche proprie di questi segmenti, e pertanto l’errore di mancata copertura dipende dall’oggetto dell’indagine, e non dall’indagine in sé. Quando si ritiene che i soli utenti residenziali non siano sufficientemente rappresentativi dell’intera popolazione, è opportuno ricorrere ad operazioni di correzione che permettano di tenere conto, almeno in parte, anche degli atteggiamenti e comportamenti di quanti a priori vengono esclusi dalla selezione campionaria. Per valutare le conseguenze che possono derivare dall’assenza nelle liste telefoniche dei non utenti residenziali, o degli utenti che si sono esclusi volontariamente dagli elenchi oppure hanno cambiato operatore telefonico rispetto a Telecom Italia, può essere utile fare riferimento a titolo di esempio al calcolo della media aritmetica di una variabile di interesse. Posto che sia: 𝑁 il numero delle unità della popolazione comprese nella lista in uso; 𝑁 il numero delle unità della stessa popolazione non comprese; 𝑁 la numerosità della popolazione (𝑁 = 𝑁 + 𝑁 ); 𝑌 la media aritmetica della variabile considerata per le unità della popolazione incluse nella lista; 𝑌 la media aritmetica della stessa variabile per le unità della popolazione non incluse nella lista; 𝑌 la media aritmetica della variabile per l’intera popolazione. Diviene possibile esprimere quest’ultima come media aritmetica dei valori medi delle unità rispettivamente incluse e non incluse nella lista, ponderati con le rispettive frequenze, ossia: 𝑌 = 𝑁 𝑁 𝑌 + 𝑁 𝑁 𝑌 Sostituendo al secondo membro della precedente equazione 𝑁 con (𝑁 − 𝑁 ), moltiplicando poi entrambi i membri per (–1) e sommando ad entrambi il valore, si può concludere che l’errore di mancata copertura per l’intera popolazione è espresso da: 𝑌 − 𝑌 = 𝑁 𝑁 (𝑌 − 𝑌 ) Questo errore è esprimibile quindi in funzione di due fattori: il tasso di mancata copertura della lista, ovvero la proporzione di unità della popolazione obiettivo non coperte dalla lista in uso, e la differenza fra le medie riferite agli individui presenti ed esclusi dalla lista. La valutazione di questa differenza, che richiede informazioni esterne all’indagine, può presentare qualche difficoltà. Da questo punto di vista è quindi determinante la disponibilità di elementi di conoscenza specifici sui non appartenenti alla lista telefonica di Telecom Italia, che si possono ottenere ricorrendo eventualmente ad una doppia strategia di rilevazione, come verrà chiarito a breve. La post-stratificazione gioca un ruolo di primo piano tra le strategie adatte a correggere le distorsioni campionarie potenzialmente derivanti dalla mancata copertura di una lista. Tecnicamente la post-stratificazione non è altro che un’operazione di riclassificazione dei dati campionari, allo scopo di riproporzionarli alla struttura della popolazione obiettivo. In altre parole, ci si propone di adattare l’informazione campionaria già rilevata alla composizione relativa della popolazione rispetto alle modalità di una o più variabili, dette appunto di post-stratificazione, connesse sia con quelle oggetto di interesse ai fini dell’indagine campionaria sia con la motivazione che determina l’incompletezza della lista in uso. Per poter applicare concretamente questa strategia è necessario che: a) sia noto il peso relativo di ciascun post-strato in popolazione; b) i post-strati risultino il più possibile omogeni al loro interno ed eterogenei tra di loro, così da rendere minime le differenze, entro ciascuno di essi, fra i profili delle unità comprese e non comprese nella lista in uso. Per la stima della media aritmetica di una variabile Y, se indichiamo con: H il numero dei post-strati nei quali è suddivisa la popolazione (h=1, 2, …, H); 𝑦 il valor medio campionario di Y nel post-strato h, dopo aver riclassificato n unità del campione tra i post-strati; 𝑊 = il peso relativo del post-strato h in popolazione; lo stimatore post-stratificato è dato da: 𝑦 = 𝑊 𝑦 Si tratta di uno stimatore corretto ed efficiente, tenuto conto che la post- stratificazione determina una riduzione in termini di variabilità delle stime, rispetto al caso del campionamento casuale semplice, comparabile a quella derivante dalla stratificazione con allocazione proporzionale basata sugli stessi caratteri usati per definire i post-strati. Pag. 35 a 83 Come è già stato messo in luce nel caso dell’errore di mancata copertura, la valutazione del secondo fattore moltiplicativo (𝑌 − 𝑌 ) presenta qualche difficoltà, proprio perché la rilevazione non fornisce informazioni utili ad ottenere una stima di 𝑌 . La sua intensità può essere desunta solo in presenza di dati esterni o addizionali rispetto alla rilevazione originaria, derivanti ad esempio:  dalla selezione di un sub-campione di non rispondenti, sui quali si ritenta un’intervista mediante un’altra tecnica;  dall’utilizzazione di informazioni di indagini precedenti, condotte sulla stessa popolazione;  dall’utilizzazione di dati di unità simili che hanno collaborato. I metodi di correzione successivi alla rilevazione dei dati – è opportuno ribadirlo – risolvono solo parzialmente, e in modo non sempre soddisfacente, il problema della riduzione dell’errore totale. Di qui l’importanza delle tecniche di prevenzione che, per quanto riguarda le mancate risposte, consistono essenzialmente in interventi preliminari sulle possibili cause dei mancati contatti e dei rifiuti, proprio per cercare di ridurne a priori l’entità. Le numerose ricerche compiute sui sondaggi per intervista personale e telefonica forniscono a questo riguardo indicazioni interessanti. Per quanto concerne il tasso di mancato contatto, sono soprattutto tre le variabili ad esso correlate sulle quali si può pensare di intervenire: 1 il numero di tentativi di intervista; 2 il momento della giornata in cui questa viene effettuata; 3 per il solo contatto telefonico, il numero di squilli necessari affinché un individuo risponda. Le ore più produttive appaiono quelle serali, mentre non emergono differenze significative per i giorni della settimana, anche se in alcuni casi quelli dal lunedì al giovedì evidenziano risultati migliori. Differenze, invece, esistono rispetto ai mesi dell’anno: dicembre è in assoluto il mese meno indicato, ed anche luglio e agosto risultano poco adatti. Una forte riduzione nell’incidenza dei mancati contatti telefonici è resa possibile dall’impiego della metodologia CATI, che come già visto prevede algoritmi di programmazione automatica delle chiamate. Tali algoritmi, basati su informazioni relative ai periodi in cui si sono verificate chiamate improduttive, suggeriscono i momenti verosimilmente più opportuni per ricontattare i numeri da cui non è stata ottenuta risposta. Un altro tipo di mancata risposta nei riguardi della quale si può intervenire è il rifiuto. Determinante è il momento in cui viene effettuato il contatto, perché non basta sapere che la persona da intervistare è reperibile per assicurarsene la collaborazione. Una persona può, infatti, non essere disponibile per un’intervista, e ciò avviene generalmente durante le ore dedicate al riposo, o nei momenti in cui si appresta ad uscire di casa, oppure nei giorni festivi, quando l’intervista viene considerata quasi una forma di intrusione nella sfera privata. Tentativi successivi di intervista per convincere coloro che rifiutano hanno difficilmente successo, al contrario di quanto accade per i mancati contatti. L’esperienza dimostra che far cambiare idea a chi rifiuta fin dall’inizio un’intervista è un evento possibile, ma assai poco probabile. Il rifiuto a collaborare appare fortemente collegato sia alla durata dell’intervista sia al momento della giornata in cui questa viene effettuata. Di solito di giorno è più facile entrare in contatto con casalinghe, pensionati e studenti; nelle ore serali una considerazione analoga vale per le persone generalmente non reperibili in casa durante la giornata perché al lavoro. Di norma la durata di un’intervista non dovrebbe superare 30 minuti nel caso di contatto personale e 15 minuti nel caso di contatto telefonico. Sull’incidenza di un preavviso dell’intervista personale o telefonica nei riguardi del tasso di rifiuto si riscontrano opinioni contrastanti. Le principali ipotesi formulate al riguardo sostengono che l’avviso di un’imminente intervista permetterebbe effettivamente agli intervistati di prepararsi, ma allo stesso tempo che l’avviso consentirebbe di non farsi trovare in casa, oppure di addurre valide ragioni per non collaborare. Nella maggior parte dei casi il contatto preliminare avviene tramite una lettera che indica con chiarezza le finalità dell’indagine e mette in evidenza il prestigio e la serietà dell’organizzazione che la conduce, in modo da favorirne una buona accoglienza. La lettera dovrebbe anche evitare all’intervistatore di fornire preliminarmente numerose spiegazioni. Non sempre, tuttavia, essa viene letta con la dovuta attenzione, e talvolta non viene neppure aperta. Cause influenti sui rifiuti possono essere i contenuti dell’intervista stessa e la sua durata. Nel caso del contatto telefonico un aspetto importante, strettamente legato al metodo di selezione di chi dovrà rispondere tra i componenti del nucleo familiare, riguarda il momento in cui viene chiesto di ricostruire l’esatta composizione di tale nucleo. La domanda può sembrare inopportuna, e spesso non ne viene compresa la motivazione. Un effetto negativo sul tasso di collaborazione è causato dall’esplicita Pag. 36 a 83 richiesta dei nomi dei membri della famiglia, per cui conviene limitarsi a chiedere quali siano il numero dei componenti ed il ruolo ricoperto dai singoli nel nucleo familiare o, eventualmente, la relazione col capofamiglia. Il principale aspetto dell’intervista, personale o telefonica, che sembra influire sul tasso di rifiuto è il modo di presentarsi dell’intervistatore. Il maggior numero di rifiuti si verifica infatti proprio nei primi minuti di conversazione. Particolare attenzione va quindi prestata alla formulazione del discorso introduttivo. La presentazione deve illustrare lo scopo della ricerca e la sua importanza, evidenziare alcune caratteristiche dell’organizzazione o istituto che la conduce ed eventualmente quale sia l’attività dello sponsor. Spesso si tratta di una breve informazione che non prevede alcuna risposta da parte dell’intervistato. Risultati positivi si ottengono anche sottolineando l’utilità della ricerca e la necessità di ottenere un campione rappresentativo, il che significa mettere al corrente l’intervistato dell’importanza della sua adesione. Sul tasso di collaborazione all’indagine possono influire anche alcune specifiche caratteristiche dell’intervistatore. A prescindere dall’esperienza, che è un requisito fondamentale, si fa riferimento in questo caso al sesso dell’intervistatore, alla sua presenza scenica (in caso di contatto diretto) e al tono o al timbro di voce (in caso di contatto telefonico). Con intervistatori di sesso maschile si conseguono non di rado tassi di rifiuto più elevati, e le differenze appaiono più accentuate nel caso in cui i rispondenti siano donne. Nelle interviste telefoniche, che mancano totalmente di stimoli visivi, sono importanti le caratteristiche vocali degli intervistatori perché possono esercitare un notevole effetto sugli atteggiamenti e comportamenti dei rispondenti. Ricerche di tipo psicolinguistico hanno messo in evidenza che impressioni e giudizi sugli interlocutori manifestate dagli intervistati a partire da queste caratteristiche influenzano a loro volta la disponibilità a collaborare. Ad esempio, gli intervistatori che parlano velocemente, a voce alta e con tono variabile vengono giudicati non solo più persuasivi ma anche più competenti ed affidabili. Come si è accennato, le mancate risposte danno luogo a problemi particolarmente gravi nel caso dei sondaggi con auto-amministrazione del questionario. Gli interventi ai quali si può ricorrere per attenuarne gli effetti sono classificabili a seconda del momento in cui si collocano rispetto alla fase di invio del questionario: preliminarmente, contemporaneamente e successivamente. In quest’ordine vengono ora esaminati. Analogamente a quanto avviene per gli altri tipi di sondaggio, l’uso di un preavviso ha lo scopo di chiarire la legittimità dell’indagine, sottolinearne la rilevanza e mettere in evidenza l’importanza della collaborazione per favorirne il buon esito. Avvertire dell’imminente arrivo del questionario consente di evitare che questo venga scambiato per materiale pubblicitario e cestinato prima di essere esaminato. È dimostrato che si ottengono risultati positivi, anche se modesti, per quanto riguarda il tasso e la velocità di risposta. Contemporaneamente all’invio del questionario, l’intervento può riguardare aspetti capaci di suscitare l’attenzione e l’interesse dei destinatari. La redazione di un questionario auto-amministrato in formato elettronico richiede particolare attenzione poiché in assenza dell’intermediazione dell’intervistatore viene a mancare la possibilità di fornire eventuali consigli o chiarimenti a fronte di reticenze o difficoltà del rispondente, né è possibile compensare eventuali lacune nella formulazione dei quesiti. La diffusa convinzione dell’esistenza di una relazione inversa fra la lunghezza del questionario auto-amministrato e il tasso di risposta non trova sempre conferma nell’esperienza. Raramente la percezione del tempo necessario a completare il questionario, e quindi dell’entità dello sforzo richiesto, sembra influire sensibilmente sulla decisione di rispondere. Questo, evidentemente, a patto che la lunghezza sia mantenuta entro limiti ragionevoli, condizione che d’altra parte è richiesta anche nelle interviste personali e telefoniche. L’argomento trattato dal questionario è maggiormente decisivo per la collaborazione di coloro che lo ricevono rispetto alle sue caratteristiche formali. Sono determinanti, in particolare, le domande iniziali, ovvero le prime ad attirare l’attenzione, anche se l’intervistato può decidere di rispondere seguendo un ordine qualsiasi. Queste domande devono entrare il più possibile nel vivo dell’argomento dell’indagine, evidenziandone l’utilità e suscitando l’interesse del lettore. È opportuno sottolineare l’importanza dell’invito a completare e restituire il questionario. Da questo punto di vista, almeno per quanto riguarda i sondaggi di opinione e le indagini di mercato, si distingue fra inviti che:  insistono sull’utilità della rilevazione da un punto di vista sociale, e quindi sui benefici che potrà portare alla categoria di individui cui più direttamente fa riferimento;  sottolineano l’importanza della collaborazione per il promotore della ricerca, e quindi l’essenzialità e l’unicità di ciascun rispondente per un valido completamento dell’indagine; Pag. 37 a 83  evidenziano l’opportunità data al rispondente di far sentire la propria opinione;  ricorrono ad una combinazione dei punti precedenti e fanno quindi leva su una pluralità di aspetti. L’efficacia delle prime due categorie di appelli, a carattere più altruistico, si manifesta generalmente con maggiore intensità quando la ricerca è condotta o patrocinata da un organismo pubblico o accademico. Il tasso finale di risposta non è generalmente influenzato in misura rilevante dal ricorso ad una scadenza per la restituzione del questionario. L’effetto principale di una scadenza è quello di aumentare la velocità dei rientri, determinando quindi un aumento del tasso nel periodo che precede la data stabilita, ma con un forte rallentamento successivo. In alcuni casi anzi il superamento di tale data può addirittura esercitare un effetto controproducente sulla volontà di coloro che non hanno ancora collaborato. Fra i fattori più efficaci per stimolare il tasso di risposta un ruolo importante può essere svolto dall’offerta di incentivi e ricompense ai partecipanti, soluzione ampiamente utilizzata soprattutto per rendere massima la collaborazione alle indagini di tipo continuativo (indagini panel). Il codice deontologico al quale si attengono di norma gli istituti di rilevazione suggerisce di non promettere mai somme di denaro, neppure di piccola entità, ma piuttosto di mettere in palio tra tutti i partecipanti all’indagine l’estrazione di alcuni premi, di valore non eccessivo. In altri termini tali forme di incentivi vanno considerati come un segno di riconoscenza per la collaborazione, e non come una ricompensa per l’impegno da affrontare. Non va naturalmente trascurata la possibilità che l’uso di incentivi sia causa non soltanto di un incremento del tasso di risposta complessivo, ma anche di potenziali effetti distorsivi (perché potrebbe spingere a collaborare maggiormente coloro che vivono in condizioni socioeconomiche più disagiate). L’invio di solleciti è il procedimento più efficace per incrementare il numero delle risposte ad un questionario auto-amministrato. Posto che il ricorso ai solleciti dia esiti positivi, ne vanno stabilite le modalità (in particolare il numero e l’intervallo temporale tra l’uno e l’altro). Nella maggior parte dei casi si fa ricorso ad uno o due solleciti, al massimo tre, programmati con cadenza settimanale. Le notizie sui non contattati sono generalmente scarse, a parte le informazioni eventualmente già presenti nella lista utilizzata per effettuare la selezione campionaria. Le indagini rivolte alla descrizione del profilo di chi rifiuta la collaborazione possono mettere invece in evidenza cosa avviene rispetto ad alcune variabili sociodemografiche. Per quanto riguarda il sesso, gli uomini sembrano più difficili da contattare e, in genere, tendono ad essere meno disposti a partecipare, rischiando quindi di venire sottorappresentati. Se si considera l’età, risulta che le persone anziane, anche se più facili da contattare, siano più spesso portate a non collaborare. Decisiva appare in ultima istanza l’influenza del grado d’istruzione: i segmenti di popolazione caratterizzati dai livelli più bassi tenderebbero a rifiutare più spesso, così come le persone con occupazioni più precarie e meno remunerative. Un’altra causa alla base della non collaborazione pare connessa al crescente numero di indagini che coinvolgono cittadini e aziende, con la conseguenza di provocare stanchezza e disinteresse, se non addirittura noia e fastidio, nei rispondenti. Strategie ex ante nel tentativo di porre rimedio agli effetti derivanti dalle mancate risposte totali. Dalle considerazioni precedenti emerge come i fattori controllabili sui quali si può pensare di agire per limitare ex ante i rifiuti e i mancati contatti siano molteplici. Operativamente, qualora si presentino comunque casi di mancata risposta totale, la soluzione generalmente adottata da chi progetta e realizza indagini campionarie è quella di procedere ad effettuare sostituzioni delle unità campionarie che vengono a mancare attingendo ad appositi elenchi di unità di riserva. Tali elenchi vengono in genere predisposti ad hoc mediante selezione casuale che avviene contestualmente a quella del campione originario, a partire dalla medesima lista di riferimento per la popolazione obiettivo e facendo riferimento alla medesima strategia di campionamento. Di conseguenza, ad ogni unità del campione programmato originariamente corrisponderanno fin dall’inizio una o più unità di riserva che verranno contattate in caso di irreperibilità o di rifiuto a collaborare. La scelta di ciascun sostituto, laddove possibile, dovrebbe privilegiare quelle persone che abbiano caratteristiche simili a quelle di chi non ha risposto. Questa soluzione consente in linea di principio di mantenere inalterata la dimensione campionaria prefissata, e conseguentemente anche i requisiti in termini di margini di errori e di livelli di fiducia associati alle stime non subiranno variazioni. Resta però aperto un problema: la sostituzione con unità di riserva presenta anche alcune controindicazioni, soprattutto per la possibilità che le unità addizionali siano maggiormente simili a chi ha risposto ed è già presente nel campione, piuttosto che a chi non ha risposto. Questa evenienza determinerebbe di fatto una compressione artificiale della variabilità delle stime, pur a fronte dell’aumento dei costi di Pag. 40 a 83 𝑁 il numero di unità appartenenti al post-strato h, con ∑ 𝑁 = 𝑁; 𝑦 il valor medio campionario dei rispondenti prelevati dal post-strato h; 𝑊 la proporzione della popolazione contenuta nel post-strato h (𝑊 = ), lo stimatore post-stratificato della media aritmetica sarà dato dall’espressione: 𝑦 = 𝑊 𝑦 Un ulteriore criterio adottato per far fronte a mancate risposte totali può essere quello di estrapolazione. Questo procedimento, al quale si ricorre soprattutto nelle indagini con auto-compilazione del questionario, consiste nel desumere il comportamento dei non rispondenti sulla base dei trend che potrebbero essersi manifestati nel corso dell’analisi del comportamento di risposta delle unità che collaborano all’indagine in momenti di tempo successivi. In pratica si potrà ipotizzare che coloro che partecipano solo dopo k solleciti siano, al crescere di k, sempre più simili nel loro comportamento di risposta ai non rispondenti. Dunque, un’estrapolazione degli eventuali trend temporali emersi nei valori assunti da ciascuna variabile d’interesse dovrebbe riflettere in maniera appropriata il comportamento dei non rispondenti. Se ad esempio fosse possibile individuare un trend lineare nell’andamento della stima di una statistica di interesse in corrispondenza di ciascuna tornata di solleciti, il ricorso ad un’estrapolazione lineare potrebbe consentire allora di stimare il valore attribuibile ai non rispondenti (metodo dell’ultima risposta). Strategia ex post. Un aspetto ulteriore da affrontare è quello del possibile ricorso a metodologie statistiche per operare interventi correttivi a posteriori sui dati, qualora si verifichino situazioni di mancate risposte parziali. Si ripropone in questo contesto un tema rilevante, quello delle possibili differenze fra rispondenti “completi” e rispondenti “parziali”: tutte le tecniche di correzione proposte dalla letteratura specializzata implicano di fatto la formulazione di un’ipotesi di omogeneità fra sottoinsiemi di questi due gruppi, a parità di alcune caratteristiche demografiche e socioeconomiche, in modo tale che i dati di chi ha risposto in maniera esaustiva possano essere utilizzati anche a rappresentare la posizione di chi ha risposto solo in parte. Questa ipotesi dovrebbe sempre essere sottoposta a controllo, cosa della quale spesso ci si dimentica. Per questo motivo è importante individuare se possibile gli aspetti per i quali i rispondenti “parziali” differiscono da coloro che partecipano ad un’indagine completando tutte le domande, valutandone poi la correlazione con le variabili oggetto di interesse. È opportuno precisare che le mancate risposte parziali comprendono non solo i dati mancanti per errori dell’intervistatore (ad esempio, per l’omissione di una domanda o della registrazione di una risposta) o per l’indisponibilità del rispondente a fornire informazioni, ma anche i dati inutilizzabili perché incoerenti o incompatibili con le risposte fornite ad altri quesiti connessi. In presenza di mancate risposte parziali, sono suggerite tre possibili strategie:  ci si limita ad utilizzare l’insieme dei dati completi, ovvero si tiene conto solo delle unità che hanno risposto a tutti i quesiti;  si prende in considerazione, ai fini dell’analisi delle singole variabili, l’insieme dei dati disponibili, ossia si tiene conto di tutte le unità indipendentemente dal fatto che abbiano o meno fornito una risposta ad ogni domanda;  si ricorre a tecniche di imputazione dei dati mancanti. Qualunque sia la strategia adottata, si dovrà mettere sempre in preventivo una possibile distorsione delle stime, a meno che il meccanismo di generazione delle mancate risposte parziali non sia puramente casuale, e quindi ignorabile. Nel primo caso, verrà assicurata la piena comparabilità delle stime in quanto tutte le statistiche campionarie saranno calcolate con riferimento alla stessa base di dati; però il ricorso a questa soluzione potrà comportare una riduzione anche notevole della numerosità campionaria prefissata, accompagnata da una conseguente riduzione della precisione desiderata per le stime. Nel secondo caso si potrà fare affidamento su tutta l’informazione presente nei dati rilevati, ma le stime campionarie non saranno contraddistinte dalla medesima precisione ogniqualvolta siano ottenute a partire da numerosità diverse. Nel terzo caso l’integrazione dei dati mancanti avverrà grazie all’applicazione di metodi di imputazione, a partire da un’attenta analisi delle informazioni contenute nei questionari completi e nelle parti compilate dei questionari incompleti. Le principali tecniche di imputazione di mancate risposte parziali sono tre, note in letteratura come:  criteri da donatore;  imputazione da modello;  imputazione stocastica. Tali tecniche, pur ampiamente utilizzate nella pratica, non sono però sostenute da un adeguato corpus teorico per quanto riguarda l’entità degli effetti che la loro Pag. 41 a 83 applicazione può comportare in termini di efficienza degli stimatori. In pratica le assunzioni su cui si basano non sono quasi mai verificabili, e la loro eventuale insussistenza può determinare distorsioni anche di entità considerevole, per cui vanno utilizzate con grande cautela. I criteri da donatore possono essere applicati per l’imputazione di dati mancanti riferiti a domande associate indifferentemente alla stima di parametri di variabili quantitative o qualitative; quelli da modello e di tipo stocastico sono utilizzati invece per colmare lacune riguardanti esclusivamente domande associate alla stima di parametri di caratteri quantitativi. I criteri da donatore suggeriscono che il valore mancante per una domanda non completata da una specifica unità campionaria possa essere mutuato dal valore indicato da un’unità simile a quella, appartenente all’insieme di coloro che hanno dato risposta alla domanda in esame. L’unità donatrice può essere individuata secondo due procedure alternative:  gli intervistati vengono preventivamente suddivisi in due sottoinsiemi, ossia quello delle unità senza omissione di risposta per la domanda in oggetto e quello delle unità con omissione, dopodiché la selezione potrà avvenire solo entro il primo sottoinsieme (tecnica cold deck);  il sottoinsieme delle unità che non presentano una mancata risposta parziale per la domanda, dal quale prelevare il donatore, viene aggiornato dinamicamente man mano che avviene ciascuna singola imputazione di un dato mancante. Di conseguenza, un’unità campionaria inizialmente con omissione di informazione, una volta avvenuta l’imputazione, può divenire a sua volta donatrice del dato mancante ad un’altra unità (tecnica hot deck). Le unità campionarie che presentano l’informazione per la variabile corrispondente alla domanda per la quale è necessario procedere ad alcune imputazioni di solito vengono classificate in sottoinsiemi (si parla di classi di imputazione) sulla base dei valori o delle modalità presentati da alcune variabili correlate, di carattere demografico e socioeconomico come ad esempio il sesso, il livello di istruzione, la condizione professionale, ecc. Ogni intervistato che non abbia completato la domanda in questione viene a sua volta assegnato, sulla base delle medesime variabili, ad una specifica classe di imputazione. Per ciascun dato mancante l’imputazione avverrà sequenzialmente, un questionario alla volta, provvedendo ad estrarre dalla classe un’unità donatrice con procedimento casuale e duplicando il valore presente in questa, assunto quindi come stima. Un’alternativa all’estrazione casuale di un’unità dalla classe di imputazione consiste nell’individuare all’interno di essa l’unità campionaria più simile a quella con il dato mancante, ovvero l’unità per la quale risulti minima la dissomiglianza/distanza calcolata a partire dai rispettivi profili di risposta forniti nel questionario. In questo caso vi sarà la necessità di ricorrere a funzioni che misurino la dissomiglianza o la distanza fra colui che non ha fornito informazione alla domanda in oggetto e coloro che appartengono alla classe di imputazione individuata. Ulteriori possibilità consistono nel sostituire al dato mancante (se la variabile è quantitativa) la media aritmetica dei valori presenti nelle due unità meno dissimili/distanti, nel senso appena precisato, oppure ancora la media aritmetica o la moda (a seconda che la variabile sia quantitativa o qualitativa) delle risposte di tutti gli individui che fanno parte della medesima classe di imputazione. Il metodo di imputazione da modello utilizza una relazione funzionale (tipicamente un’equazione di regressione lineare) che collega una variabile dipendente (quella corrispondente alla domanda che necessita di imputazioni) ad altre variabili esplicative, ad essa correlate, i cui valori siano noti per tutte le unità campionarie, e quindi anche per chi ha risposto solo parzialmente. L’ipotesi di base è che i parametri della relazione stimata tra queste variabili, a partire dalle sole informazioni di chi ha dato risposte complete, siano invarianti e quindi validi anche nel caso di chi ha fornito risposte parziali. Una volta stimati tali parametri e ipotizzata la loro invarianza, diverrà possibile ricostruire per via algebrica il valore della variabile dipendente da imputare a ciascuna unità, data la conoscenza dei valori assunti per essa dalle variabili esplicative. Il metodo di imputazione stocastica è applicabile, come già ricordato, quando la variabile associata alla domanda per la quale si sono riscontrate omesse risposte è di natura quantitativa. Esso consiste nel modificare il valore ottenuto per l’imputazione secondo uno dei due criteri precedenti aggiungendovi (o sottraendovi) un valore aleatorio, ottenuto tramite estrazione casuale da una specifica distribuzione statistica denominata rumore bianco (white noise), con valor medio nullo e varianza finita. Così facendo si ha l’opportunità di attenuare gli effetti di compressione artificiale e di omogeizzazione della variabilità dei dati conseguenza dell’impiego di tali criteri: infatti sia l’imputazione da donatore sia l’imputazione da modello generano valori stimati che, per definizione, non potranno mai uscire dal range di quelli già osservati nelle unità campionarie. Pag. 42 a 83 Errori di misura. Gli errori di misura, ovvero gli errori non campionari attribuibili al questionario, al rispondente, al procedimento di raccolta delle informazioni o all’intervistatore, sono fra loro strettamente interdipendenti e quindi difficilmente separabili ai fini della valutazione dell’influenza che possono esercitare sulla qualità dei risultati di un’indagine campionaria. Proprio per questo motivo, e in considerazione del fatto che i loro effetti si manifestano simultaneamente sulle risposte, ci si riferisce ad essi indicandoli come errori di risposta, termine che, a rigore, dovrebbe essere attribuito soltanto a quelli legati al comportamento del rispondente. Rispetto agli errori esaminati in precedenza, la loro valutazione è più difficile, in quanto implicherebbe la conoscenza dei valori veri ma incogniti dei parametri di interesse o, in subordine, la ripetizione delle successive fasi della rilevazione dei dati tenendone sotto controllo di volta in volta i diversi aspetti per poterne poi confrontare i risultati. Ma anche il metodo delle reinterviste, che causerebbe evidentemente un notevole innalzamento dei costi, non permette in realtà di misurare gli errori di risposta con un ragionevole grado di precisione, soprattutto per l’impossibilità di escludere che anche la nuova intervista possa essere a sua volta fonte di errori. Tuttavia, l’emergere di forti divergenze costituirebbe un elemento conoscitivo degno di grande attenzione. In pratica, nel tentativo di tenere sotto controllo questi errori si sottopongono sub- campioni casuali di rispondenti a diversi trattamenti che si presumono essere cause potenziali di errori di misura. Si cerca, cioè, di ricorrere a diversi intervistatori, a diverse formulazioni di una stessa domanda o a diverse tecniche di contatto per poi analizzare come le differenze eventualmente emerse si riflettano sulle statistiche campionarie stimate o sulla loro variabilità. L’individuazione di strategie idonee per la riduzione degli errori di misura è ostacolata anche dalla loro dipendenza da fattori psicologici. Non esistono, in questo caso, tecniche od operazioni specifiche di correzione. Vi è comunque la possibilità di intervenire su quegli aspetti del piano dell’indagine, come ad esempio le caratteristiche del questionario e la formazione degli intervistatori, la cui influenza nel generare errori può essere più rilevante. La valutazione dei costi di un’indagine sul campo. (Dispensa paragrafo 7). Si è già osservato in precedenza che fissare gli obiettivi di un’indagine campionaria significa essenzialmente chiarire fra il committente e il ricercatore che cosa si vuole conoscere e - aspetto della massima importanza - con quale approssimazione. Nella fase conclusiva di progettazione sono fondamentali inoltre la preparazione del questionario, la definizione delle modalità di raccolta delle informazioni e la valutazione dei costi dell’indagine. Si è accennato a più riprese a scelte metodologiche e operative che comportano costi di diversa entità. Ogni fase dell’indagine, dalla progettazione alla presentazione del rapporto finale, è configurabile come un centro di costo autonomo. I lavori di preparazione della ricerca influenzano il costo complessivo in relazione alla scelta della metodologia di raccolta dei dati ed alla fissazione dei tempi di realizzazione. L’acquisizione e la messa a punto della lista per procedere alla selezione del campione, il contatto sistematico di tutte le unità sorteggiate (al fine soprattutto di evitare, o quantomeno rendere minime, le mancate risposte), la dispersione territoriale dei rispondenti nel caso di acquisizione dei dati per intervista diretta incidono, a loro volta, sui costi di rilevazione, talora in misura anche sensibile. Fra i costi vanno considerati anche i tempi necessari alla messa a punto del questionario, alla formazione degli intervistatori (se previsti) e alla gestione della fase di pre-test. Tra lunghezza del questionario e costi di rilevazione vi è una sostanziale relazione di proporzionalità, che costituisce un elemento importante di cui tenere conto al momento della decisione sul metodo di raccolta dei dati. Quando si impiegano campioni casuali, una volta fissato il metodo di rilevazione e messo a punto il questionario, si procede alla valutazione dei costi tramite la scelta della strategia campionaria e la determinazione della dimensione del campione. L’adozione della strategia campionaria più efficiente richiede di:  fissare il grado di approssimazione dei risultati, ovvero l’errore di stima che si è disposti a tollerare;  calcolare i costi di rilevazione in ragione delle diverse strategie;  specificare la funzione dei costi ed individuare una stima iniziale dei relativi parametri;  determinare la dimensione del campione (ed eventualmente la sua allocazione tra gli stati nel caso di stratificazione) che, nell’ambito di ciascuna strategia campionaria, minimizza il margine d’errore delle stime per un dato costo o, in modo equivalente, minimizza il costo a parità di margine d’errore. Pag. 45 a 83 Capitolo 6 Misura delle relazioni tra variabili per le decisioni aziendali. 6.1. Relazione tra variabili aziendali: considerazioni generali e contenuto del capitolo. Nella gestione operativa dell’impresa capita spesso di voler verificare l’esistenza e l’intensità delle relazioni tra le variabili di interesse. L’impiego di adeguati metodi di analisi statistica, che rientrano nell’ambito delle misure di correlazione e dei modelli di regressione, è certamente di aiuto per indirizzare le analisi e aiutare a definire le scelte del manager aziendale. Per presentare alcune esemplificazioni, ci riferiamo qui a due tipologie di analisi frequentemente svolto anche con l’ausilio di metodi statistici: l’analisi dei costi di produzione e l’analisi delle vendite. Gli esempi che si potrebbero però considerare in campo aziendale sono davvero tanti. L’ammontare dei costi elementari dei fattori e del costo di produzione del prodotto naturalmente variano al variare dell’ammontare della produzione. I costi e in particolare quelli variabili sono per definizione collegati al volume di attività e l’analisi di questo legame è indispensabile per molteplici obiettivi di analisi aziendale; per esempio, per il dimensionamento di un impianto (break-even-point analisys), per verificare la validità del mix quali-quantitativo delle materie prime impiegate, per minimizzare i costi unitari di produzione, per determinare i prezzi di vendita, per valutare il volume minimo di produzione e di vendita al fine di recuperare integralmente i costi fissi e variabili. Di altrettanto interesse è lo studio della relazione tra le vendite e il prezzo del prodotto, o possibilmente con i prezzi di prodotti “concorrenti”, per verificare se e quanto i prezzi influenzano le vendite dell’azienda e se conviene esercitare la leva prezzo per aumentare le vendite e/o i profitti. Come pure interessante è studiare la relazione tra l'ammontare delle vendite e le spese pubblicitarie e, in genere, per la promozione del prodotto. L'obbiettivo di questo capitolo è proprio quello di fornire gli strumenti statistici per lo studio di tali relazioni. Iniziamo, nel Paragrafo 6.2, con l'introduzione dei metodi statistici per l'analisi della relazione tra due variabili o bivariata, come tecnicamente viene definita. In questo caso in genere interessa: 1. In primo luogo, valutare il grado (intensità) e la forma della relazione attraverso l'impiego dell'analisi statistica della correlazione; 2. In secondo luogo, se possibile, sintetizzare con una funzione analitica il legame tra le due variabili, attraverso l'utilizzo di un modello di regressione, in modo da conoscere in quale misura la variabile presa in considerazione dipende da un'altra variabile a cui è collegata. Analizzando il legame tra due sole variabili si parla di correlazione semplice e di regressione semplice. È comunque evidente che spesso al manager interessa anche, e potremmo dire di più, l'analisi simultanea della relazione tra la variabile di interesse e due o più variabili che la influenzano, in modo da decidere quali tra le leve di cui dispone gli conviene azionare (per esempio è per lui importante conoscere come l'ammontare delle vendite è influenzato contemporaneamente dal prezzo del prodotto, dai prezzi dei prodotti concorrenti e dalle spese promozionali). In questo caso, essendo coinvolte due o più variabili, si impiegano le misure di correlazione multipla e i modelli di regressione multipla. Notazione: Covarianza. Per determinare la misura in cui X e Y co-variano linearmente (al crescere di X, Y cresce o decresce sempre: relazione proporzionale diretta o inversa), calcoliamo la covarianza: 𝜎 , = (𝑥 − ?̅?) (𝑦 − 𝑦)𝑓 , = 𝑀(𝑋𝑌) − ?̅?𝑦 Dunque:  se 𝜎 , > 0 c’è proporzionalità diretta tra X e Y.  Se 𝜎 , < 0 c’è proporzionalità inversa tra X e Y.  Se 𝜎 , = 0 non sussiste alcuna relazione lineare tra X e Y; ciò non implica che non esista nessun altro tipo di relazione tra le due variabili. Per esempio, una relazione quadratica non è colta dalla covarianza. Pag. 46 a 83 Relazioni tra variabili. 6.2. Analisi e impiego della correlazione semplice e del modello di regressione lineare semplice. 6.2.1. Analisi e misura della correlazione semplice. Più è grande |𝜎 , | più è forte la relazione lineare. Ma il valore della covarianza 𝜎 , dipende dall’unità di misura delle variabili, perciò è difficile da interpretare. Se è diverso da zero, c’è relazione lineare: ma quanto è forte? Per avere una misura normalizzata, semplicemente interpretabile, dividiamo la covarianza per il valore massimo che può assumere, ottenendo il coefficiente di correlazione lineare di Pearson: 𝜌 = 𝜎 𝜎 𝜎 Dunque, questo indice esprime l’intensità della relazione. L’indice viene utilizzato quando le variabili sono continue, cioè misurate su una scala a intervalli o razionale, sono distribuite normalmente e la loro relazione deve essere di tipo lineare. I valori che il coefficiente può assumere sono compresi tra -1 e +1; i valori estremi esprimono una relazione perfetta tra le variabili, mentre in assenza di una relazione il valore del coefficiente è 0. Il segno positivo o negativo corrisponde a quello della covarianza. L'intensità di questo legame (positivo o negativo), e quindi in che proporzione avviene la variazione di una variabile rispetto alla variazione unitaria dell'altra, è rappresentato dal valore del coefficiente. E se le variabili sono più di 2? Non esiste una misura di quanto co-variano K variabili, se K > 2. La covarianza si misura solo per coppie di variabili, altrimenti si perderebbe il segno della proporzionalità. Dunque, se abbiamo K variabili (con K>2), dobbiamo calcolare la covarianza di ogni possibile coppia che possiamo formare con tali K variabili. Il totale delle coppie possibili, e dunque delle covarianze da calcolare, è: 𝐾 − 𝐾 2 La matrice di Varianze e Covarianze. Una volta calcolate le covarianze tra le K variabili a coppie (nonché le loro varianze), possiamo costruire la matrice di varianze e covarianze, che in generale assume la forma: È una matrice simmetrica, con le varianze in diagonale e le covarianze uguali sopra e sotto la diagonale (Cov(X,Z) = Cov (Z,X)). Per esempio, se abbiamo tre variabili: Dove: 𝑉𝑎𝑟(𝑋 ) = 𝑀𝑒𝑑𝑖𝑎(𝑋 ) − [𝑀𝑒𝑑𝑖𝑎(𝑋 )] 𝐶𝑜𝑣(𝑋 , 𝑋 ) = 𝐶𝑜𝑣(𝑋 , 𝑋 ) = 𝑀𝑒𝑑𝑖𝑎(𝑋 ∗ 𝑋 ) − 𝑀𝑒𝑑𝑖𝑎(𝑋 ) ∗ 𝑀𝑒𝑑𝑖𝑎(𝑋 ) Dalla matrice di varianze e covarianze possiamo ottenere la matrice di correlazione, dividendo ogni suo elemento, che possiamo indicare genericamente come 𝜎 , , per il prodotto delle deviazioni standard: 𝜎 ∗ 𝜎 . Ovviamente, sulla diagonale principale, 𝑖 = 𝑗, perciò 𝜎 , = 𝜎 = 𝜎 ∗ 𝜎 . Quindi, la matrice di correlazione ha tutti 1 sulla diagonale principale (ovviamente ogni variabile è perfettamente e positivamente correlata con sé stessa). Nell’esempio con K=3: Pag. 47 a 83 In generale: Che risulta: Ovviamente 𝜌 , = 𝜌 , , quindi anche questa è una matrice simmetrica, con tutti gli elementi della diagonale principale pari a 1 e le correlazioni uguali sopra e sotto la diagonale. Vedremo successivamente il coefficiente di correlazione multipla, per il momento:  La misura della correlazione lineare multipla si ottiene calcolando le covarianze tra le K variabili a 2 a 2, e dividendo per il prodotto dei rispettivi scarti quadratici medi (deviazione standard = radice quadrata della varianza);  L’analisi della correlazione lineare multipla consiste nell’ispezione della matrice di correlazione, ottenuta dalla matrice di varianze e covarianze. Il coefficiente di correlazione lineare di Pearson (𝜌 , ) è appropriato per coppie di variabili la cui distribuzione sia almeno asintoticamente approssimabile con una Normale (infatti è “lineare”, essendo la retta il grafico del valore atteso condizionato di una distribuzione Normale 𝐸[𝑌|𝑋] = 𝑎 + 𝑏𝑋). Nella pratica, solitamente si calcola un coefficiente di correlazione di Pearson per qualsiasi tipo di variabili, tuttavia, in caso di distribuzione fortemente asimmetriche o con code molto più alte/basse della Normale, questa approssimazione può condurre a risultati distorsi. In tali casi, si utilizzano coefficienti di correlazione non-lineare (che non vedremo in questo corso). Testare la significatività delle correlazioni. Quando l’indice di correlazione viene calcolato su dati provenienti da un campione, piuttosto che da un’intera popolazione obiettivo, occorre fare inferenza sull’indice procedendo con un test di ipotesi sulla significatività del suo valore. Generalmente scegliamo un livello di significatività α pari al 5%, e specifichiamo il sistema d’ipotesi: 𝐻𝑂: 𝑝 , = 0 𝐻1: 𝑝 , ≠ 0 H0 è l’ipotesi nulla: il coefficiente di correlazione non è statisticamente significativo, ossia non è significativamente diverso da zero, cioè è un caso che nel campione ci sia venuto diverso da zero, ma possiamo concludere che, con un certo livello di probabilità, in realtà X e Y siano variabili linearmente indipendenti in generale (nella popolazione di riferimento). Il segno = indica che, per verificare questa ipotesi, dobbiamo fare un test a 2 code. Dunque, ci serve la distribuzione dello stimatore 𝜌 = sotto H0 per procedere. Sotto H0, cioè se l’ipotesi nulla è quella vera, la statistica test: 𝑡 = 𝜌 , − 0 1 − 𝜌 , 𝑁 − 2 Dove 𝜌 , è il valore di correlazione calcolato sul campione e 0 è il valore ipotizzato sotto H0. La statistica test ha distribuzione T di Student con N-2 gradi di libertà. Quindi, calcoliamo il P − value = P[|T| < |t| |𝐻0] cioè la probabilità che il valore della statistica test sia più lontano da zero di quello che abbiamo calcolato sul campione, se H0 fosse versa, che è la probabilità di sbagliarci nel rifiutare H0. Se P − value > α accetto 𝐻0 perché α è la è massima probabilità di errore nel rifiutare H0 che abbiamo deciso a priori di tollerare. 6.2.2. Modello di regressione lineare semplice. Il coefficiente di correlazione lineare quantifica in che misura X e Y co-variano. Per esempio, se X= costi di marketing e Y= profitto, 𝑝 , = 0,7 indica che c’è una forte correlazione lineare tra X e Y, che variano insieme con una proporzionalità diretta che Pag. 50 a 83 indipendenti (e non solo una come nella regressione lineare semplice); più variabili correlate alla variabile dipendente ci sono, più si riduce l’errore perché si riesce a spiegare meglio la variabile dipendente. Il modello in forma scalare è: 𝑦 = 𝛼 + 𝑏 𝑥 , + 𝑏 𝑥 , + ⋯ + 𝑏 𝑥 , + 𝜀 In forma matriciale diventa: dove: Stimatore OLS nella regressione lineare multipla. Interpretazione dei coefficienti della regressione lineare multipla – ceteris paribus analysis. Se i dati sono nell’unità di misura originaria:  𝒃𝒌 stima la variazione media di Y se 𝑋 aumenta di 1 e tutte le altre variabili indipendenti rimangono invariante. Perciò, se 𝑋 aumenta di 1 mentre tutti gli altri regressori mantengono gli stessi valori, in media Y aumenta di 𝑏 se 𝑏 > 0, diminuisce di 𝑏 se 𝑏 < 0.  𝒂 stima la media di Y se 𝑋 = 0∀𝑘. Geometricamente, l’equazione di regressione multipla rappresenta un iperpiano su uno spazio in K+1 dimensioni. Interpretazione dei coefficienti della regressione lineare multipla – trasformazioni logaritmiche. Spesso, soprattutto nelle applicazioni economiche, è utile trasformare i dati, applicando il logaritmo naturale, perché:  I logaritmi rendono la distribuzione delle variabili più “liscia”, più simmetrica;  𝐥𝐧(𝑿 + ∆𝑿) − 𝐥𝐧 (𝑿) ≈ ∆𝑿 𝑿 la differenza tra il logaritmo naturale di 𝑋 = 𝑋 + ∆𝑋 (es. PIL Italia 2023) ed il logaritmo naturale di X (PIL Italia 2022) approssima all’incirca la variazione percentuale di X (nell’esempio del PIL tra 2022-23) diviso 100.  Se applichiamo il ln a 1 o più variabili indipendenti, per esempio: 𝑦 = 𝛼 + 𝑏 ln (𝑥 , ) + 𝑏 𝑥 , + 𝜀 Se 𝑋 aumenta dell’1% e 𝑋 rimane uguale, Y varia di 0.01𝑏 .  Se applichiamo il ln alla sola variabile dipendente (lasciamo nella scala originale le variabili indipendenti), per esempio: ln (𝑦 ) = 𝛼 + 𝑏 𝑥 , + 𝑏 𝑥 , + 𝜀 Se 𝑋 aumenta di 1 e l’altro regressore rimane uguale, Y varia del 100𝑏 %.  Se applichiamo il ln sia alla variabile dipendente sia a 1 o più variabili indipendenti, per esempio: 0.01 stima del coeff. che abbiamo ottenuto; 𝑏  per la stima di b1 Pag. 51 a 83 ln (𝑦 ) = 𝛼 + 𝑏 ln (𝑥 , ) + 𝑏 𝑥 , + 𝜀 Se 𝑋 aumenta dell’1% e 𝑋 rimane uguale, Y varia del 𝑏 %. In questo caso, 𝑏 è detta elasticità di Y ad 𝑿𝟏. Interpretazione dei coefficienti della regressione lineare multipla – standardizzazione. Se le variabili del modello hanno unità di misura/ordini di grandezza diversi tra loro, il valore assoluto dei coefficienti stimati tenderà ad essere molto grande se il corrispondente regressore è in valore assoluto molto grande (per es. fatturato in euro); molto piccolo se il corrispondente regressore è in valore assoluto molto piccolo (per es. il ROE). Ciò ci impedisce di interpretare la magnitudine dei coefficienti angolari stimati come importanza/impatto del corrispondente regressore su Y. Quando standardizziamo andiamo a schiacciare tutti i pallini in modo tale che la loro varianza sia vicina a 1. Per rendere interpretabile la magnitudine (le unità di misura con cui sono espressi i dati si riflette sui coefficienti) dei coefficienti corrispondenti a regressori aventi unità di misura/ordini di grandezza diversi, possiamo standardizzare i dati, oppure le stime dei coefficienti ottenute sui dati nell’unità di misura originaria. Dunque, è utile standardizzare quando abbiamo dei dati con delle unità di misura differenti tra loro. Standardizzare i dati significa sottrarre ad ogni osservazione su ogni (o solo alcune) variabile la media (campionaria) di tale variabile e dividere tale differenza per la deviazione standard (campionaria): 𝑦∗ = 𝑥 , ∗ = , Se stimiamo, per esempio, il modello: 𝑦∗ = 𝛼 + 𝑏 𝑥 , ∗ + 𝑏 𝑥 , + 𝑏 𝑥 , ∗ + 𝜀∗ 𝜀∗ ∽ 𝑁(0,1) Nell’esempio, 𝑥 , non è standardizzata, perché ha già scala confrontabile con quelle standardizzate (per esempio dummy UE). Se 𝑋∗ aumenta di 𝜎 , ceteris paribus, Y varia di 𝑏 𝜎 . Se 𝑿𝟐 aumenta di 1, ceteris paribus, Y varia di 𝒃𝟐𝜎 . Se 𝑋∗ aumenta di 𝜎 , ceteris paribus, Y varia di 𝑏 𝜎 . La X deve variare di UNA deviazione standard (se la dev. St. è 4, X aumenta di 1*4). Se invece stimiamo il modello sui dati dell’unità originaria, per esempio: 𝑦 = 𝛼 + 𝑏 𝑥 , + 𝑏 𝑥 , + 𝑏 𝑥 , + 𝜀 𝜀∗ ∽ 𝑁(0, 𝜎 ) Poi standardizziamo le stime dei coefficienti, moltiplicandole per la deviazione standard campionaria della corrispondente variabile indipendente e dividendole per la deviazione standard campionaria della variabile dipendente: Se 𝑿𝟏 ∗ aumenta di 𝜎 , ceteris paribus, Y varia di 𝑏∗ 𝜎 . Se 𝑿𝟐 aumenta di 𝜎 , ceteris paribus, Y varia di 𝑏∗ 𝜎 . Se 𝑿𝟑 ∗ aumenta di 𝜎 , ceteris paribus, Y varia di 𝑏∗ 𝜎 . Interpretazione dei coefficienti della regressione lineare multipla – variabili binarie (dummy). Mentre la variabile dipendente nella regressione lineare deve essere quantitativa (e continua), le variabili indipendenti possono essere anche qualitative, non ordinabili (es. il sesso del consumatore). In tal caso, se la mutabile ha L modalità (nel caso del sesso L=2), codifichiamo L-1 vettori con elementi pari a zero se la corrispondente unità statistica non presenta tale modalità, pari a 1 se la presenta. Tali vettori sono variabili binarie (in inglese dummy). Per esempio, se abbiamo campionato cinque consumatori, nell’ordine: femmina, femmina, maschio, femmina, maschio, codificheremo o il vettore F o il vettore M: 𝐹 = ⎝ ⎜ ⎛ 1 1 0 1 0⎠ ⎟ ⎞ 𝑜𝑝𝑝𝑢𝑟𝑒 𝑀 = ⎝ ⎜ ⎛ 0 0 1 0 1⎠ ⎟ ⎞ Quindi, se stimiamo, per esempio, il modello: 𝑦 = 𝛼 + 𝑏 𝑥 , + 𝑏 𝑥 , + 𝑏 𝐹 + 𝜀 𝑏 stima la differenza tra la media Y nella popolazione (valore atteso) femminile rispetto alla media di Y nella popolazione maschile, a parità di 𝑿𝟏 e 𝑿𝟐: Se Y è, per esempio, il reddito mensile e 𝑏 = −50, capiamo che in media le femmine guadagnano 50 euro in meno dei maschi, a parità di altre condizioni. Invece, se stimiamo, per esempio, il modello: 𝑦 = 𝛼 + 𝑏 𝑥 , + 𝑏 𝑥 , + 𝑏 𝑀 + 𝜀 Pag. 52 a 83 𝑏 stima la differenza tra la media di Y nella popolazione (valore atteso) maschile rispetto alla media di Y nella popolazione femminile, a parità di 𝑿𝟏 e 𝑿𝟐. Se Y è, per esempio, il reddito mensile e 𝑏 = 50, capiamo che in media i maschi guadagnano 50 euro in più delle femmine, a parità di altre condizioni. Previsioni ex-post con la regressione lineare multipla. Dopo aver stimato il modello (cioè i suoi parametri d’interesse), possiamo calcolare quale sarebbe il valore di 𝑦 ∀𝑖 = 1, … , 𝑁 se il punto corrispondente alla i-esima unità statistica si trovasse esattamente sulla retta di regressione (dati i valori osservati delle variabili indipendenti): devo stimare l’errore: la distanza del mio punto dalla retta che ho stimato con la regressione (𝑦 è l’errore). 𝑦 è una previsione in sample, ex-post, nel senso che l’unità statistica per cui facciamo la previsione l’abbiamo già osservata, essendo già parte del campione che abbiamo utilizzato per stimare i parametri. Quindi, in questo caso, non prevediamo un valore 𝑦 sconosciuto, ma un valore noto, usato per la stima. Residui stimati della regressione lineare multipla. A questo punto, possiamo stimare gli errori di regressione/residui: 𝜀̂ = 𝑦 − 𝑦 Facendo semplicemente la differenza tra valore osservato (2 nell’esempio precedente) e quello previsto inserendo nella formula 𝑦 𝛼 + 𝑥 , 𝛽 + 𝑥 , 𝛽 + ⋯ + 𝑥 , 𝛽 i valori stimati dei parametri e quelli osservati delle variabili indipendenti. Siccome la retta passa nel mezzo dei punti osservati, avremo residui positivi e negativi. Perciò, per evitare che si compensino, quantifichiamo la misura in cui il modello stimato NON spiega come varia Y (e perciò non è in grado di prevedere esattamente il suo valore) con la somma dei quadrati dei residui: 𝑺𝑺𝑹 = 𝜀 = (𝑦 − 𝑦 ) = 𝑌 𝑌 − 𝛽 𝑋 𝑌 Che è come la funzione obiettivo che abbiamo minimizzato per trovare lo stimatore OLS. Analisi della varianza. Analisi della devianza (N*Varianza). Pag. 55 a 83 LE ASSUNZIONI DI GAUSS E MARKOW GMI1 —- Linearità - Diagnostica Come valutare se l'assunzione di linearità è rispettata in applicazioni particolari? 1. Ispezionando lo scatter plot dei residui Per es. relazione quadratica dlusters asimmetria 2. Verificando se i quantili della distribuzione empirica dei residui combaciano con quelli di una normale (QQplot) At auconie Con STATA: scatter res X Si possono anche calcolare curtosi e skewness ‘qnorm res dei residui e fare test inferenziali di normalità Xx pù M i resighuinon Sono T comrati sullo sero » i À a X 1 modello e \Î ce Tanto piu i stamo Sua. lino. tanto pià da. distribuzione i i gir tponeni pia degzi ovvori GMI1 —- Lineantà — Violazioni Se l'assunzione di Linearità è violata: 1. Le relazioni non-lineari tra le variabili del modello non sono colte. I P-VALVE Sono Soougziosi: ; ii ù 2. Variabili indip. non significative potrebbero risultare significative o viceversa, perché la distribuzione dello stimatore sotto HO in realtà non è normale. Noi anatomo a cotedore ‘£L P.ave ci RO PERLE Pa Orcicane sogiazonco. i i i a 3. Anche le stime sono tendenzialmente distorte. sestiere ria. °° Renon Serre Seno mona GM 2 - E(e;] = 0 - Diagnostica Come verificare se l'assunzione di errori centrati in zero regge in applicazioni particolari? 1. Verificando che la media dei residui stimati sia all'incirca zero. Possiamo testare con un t-test se è significativamente diversa da zero (con STATA: ttest res==0) 2. Ispezionando lo scatter plot dei residui stimati. Residui con media <o Residui con media o GM2- E[e,)=0 - Violazioni 1, Se il valore atteso degli errri fosse maggiore di zero, le differenze positive tra Yosservato e Yprevisto sarebbero cumulativamente maggiori di quelle negative, quindi le previsioni ottenute zon il modello sarebbero sistematicamente distorte per difetto. Se il valore atteso degli errri fosse minore di zero, le previsioni ottenute con il modello sarebbero sistematicamente distorte per eccesso. Quindi, questa assunzione è fondamentale per l'utilità del modello in previsione: se mi aspetto zhe in media il modello sbagli, non ha senso usarlo. 2. L'assunzione del valore atteso nullo degli errori giustifica la nostra aspettativa che la retta di regressione descriva col minimo errore possibile la relazione tra Y ed X. Se assumessimo che in media gli errori fossero positivi (negativi), significherebbe che sarebbe più probabile trovare i data point sopra (sotto) alla retta, piuttosto che sulla retta stessa. Perciò la retta stimata OLS ha l’intercetta distorta (la retta ‘giusta’ sarebbe parallela a quella stimata, ma più in alto (basso). L'intercetta distorta (insieme ai residui) esprime gli effetti costanti di variabili (osservabili o non) nmesse dal modello. in presenza di eteroschedasticità. Pag. 56 a 83 GM3 - Omoschedaslicita Variabiliomoschedastiche hanno uguale varianza. Es.}-Ny,=-3, 0f=9) Visa-Ny,=2, 0$,=9) . Vini 3 Visa-Ny, =0, 0og=9>Y=-2-N{|2| Vea) o 9 nr E=0rn 9 nu Orari Int 9 GM3 - Eteroschedaslicita Variabili eteroschedastiche hanno varianze diverse. Es.Y1-NQ4y, = -3, 0 =9) Visa" N(y,=2, 0È=M) . Visa 3 Yisa=Ny,=0, of =3)>Y=M2-N[|2| £ Wing 0 9 Tit xh rav 11 vr Ovay Ivar 8 GM3 - Omoschedasiicità L'assunzione di omoschedasticità degli errori deriva dalla ricerca della massima efficienza. - Pertestare la significatività dei coefficienti e costruire intervalli di confidenza, ci serve una stima della varianza dello stimatore. Per stimare la varianza dello stimatore, dobbiamo calcolare quella teorica (il parametro d'interesse in questo caso) e lo facciamo risolvendola formula generale della varianza, dopo aver messo in evidenza che 0,5 è esprimibile come la somma delWerowalore,gè della distorsione: Pag. Boss _ (2x2) (2%) = (xx) aereo] = (xx) 18 + x%e)] = (210) 18 + (20) (e) = + (xx) x) varlBoss] = Var(80+ (XX) (Xe) Var[p}=0 = Var((x'x) x") sandwitch rule = (27x) a tte) x (x) * Affinché lo stimatore OLS sia il più efficiente (tra quelli lineari), dobbiamo imporre che Varte] sia la più piccola possibile. La disuguaglianza di Cramér-Rao ci garantisce che la più piccola possibile è: n? 0 0. 0 da 0.0 Varle] = o?1 = o 60 iostituendo Var[e] cono?! in. varlfou) =(x°x) * xii» (x°x)* otteniamo varlBors] = gf” oRl Ax) = (xx) Na che infatti stimiamo con ÎÈLl- (xx)! Var[e] = 02! significa: &-NO0, 0?) E3-N(0, 07) di 4 ey-NO, 0?) >e=î2|-Ny(0,071)) o?1= En per la prima assunzione GM | 57a83 Pag. 60 a 83 Capitolo 7 l’analisi delle serie storiche per la programmazione delle attività. 7.1. Le previsioni in azienda: considerazioni generali. La gestione dell’impresa richiede una complessiva attività di previsione. I metodi di previsione riguardano fenomeni caratterizzati da incertezza e il loro scopo principale è quello di ridurre il rischio insito nel processo decisionale. Una usuale classificazione distingue i metodi di previsione tra quantitativi, quando si dispone di dati statistici adeguati e si impiegano metodi statistici per l’analisi e la previsione, e qualitativi, basati su giudizi di esperti, come per esempio il metodo Delphi. Nell’ambito delle tecniche quantitative, si distingue tra metodi basati sull’analisi delle serie storiche e i metodi, cosiddetti, esplicativi. Nel caso dell’impiego dell’analisi delle serie storiche la previsione di un fenomeno Y dal tempo t al tempo 𝑡 + ℎ(𝐹 ) si basa sull’analisi dell’evoluzione passata del fenomeno per individuare quelle regolarità che consentano l’estrapolazione di tale evoluzione al futuro, nell’ipotesi che queste di ripetano. Nel caso dei modelli esplicativi si assume che la variabile Y da prevedere dipende da una variabile X (o più variabili) detta variabile esplicativa o indipendente che influenza(no) la variabile dipendente da prevedere. 7.2. Previsioni per mezzo dell’analisi delle serie storiche: SERIE STORICHE. Tipi di dati In generale, ogni analisi statistica consiste nello studio del carattere Y e della relazione con i caratteri rappresentati nella matrice X. Se abbiamo osservato Y e X:  Su N unità in 1 istante di tempo, o senza considerare differenze temporali, tali osservazioni costituiscono dati trasversali o sezionali (cross section);  Su N aree geografiche in 1 istante di tempo, o senza considerare le differenze temporali, tali osservazioni costituiscono dati spaziali;  Su 1 unità/area geografica in N istanti di tempo, tali osservazioni costituiscono una serie storica (invece di N di solito scriviamo T per indicare la dimensione del campione, dove il campione, in questo caso, è -una parte de-la storia passata del fenomeno indagato);  Su N unità in T istanti di tempo, tali osservazioni costituiscono dati longitudinali (panel);  Su N aree geografiche in T istanti di tempo, tali osservazioni costituiscono dati spazio-temporali. Dunque, le serie storiche ci permettono di studiare la dinamica, l’evoluzione di un fenomeno nel corso del tempo. Esiste una gran varietà di strumenti statistici per analizzare le serie storiche e prevedere le evoluzioni future del fenomeno studiato, nell’ipotesi che:  Le relazioni tra le variabili che vigevano in passato siano tutt’ora in vigore e continueranno a vigere in futuro (in caso contrario, parliamo di structural break);  I pattern dinamici regolari osservati in passato, continuano a valere nel presente e si ripeteranno nel futuro, cioè il processo generatore dei dati (le leggi generali che regolano l’evoluzione del fenomeno, salvo oscillazioni aleatorie e one-off events) storici è uguale a quello che genererà i dati futuri. Tali ipotesi sono legate al concetto di stazionarietà. Pag. 61 a 83 Autocovarianza. Sostanzialmente è uguale alla covarianza, eccetto per il fatto che la covarianza si calcola per variabili aleatorie riferite ad unità diverse nello stesso tempo (es. covarianza tra la prima e la seconda variabile campionaria 𝐶𝑜𝑣(𝑌 , 𝑌 ) = 𝐸[𝑌 , 𝑌 ] − 𝐸[𝑌 ]𝐸[𝑌 ] = 𝜎 , ), invece l’autocovarianza si calcola per variabili aleatorie riferite alla stessa unità in tempi diversi: Autocovarianza di processo stazionario. Autocovarianza di processo stazionario – proprietà. Autocovarianza di processo STAZIONARIO. Pag. 62 a 83 Esempio di correlogramma – serie Incorrelata e Stazionaria. Esempio di correlogramma – serie Autocorrelata ma Stazionaria. Esempio di correlogramma – serie Autocorrelata e NON Stazionaria. Come verificare la stazionarietà? Time plots. Analisi delle serie storiche – 2 approcci. Ci sono due approcci all’analisi delle serie storiche:  L’approccio classico ipotizza che il processo sia dinamico, di cui la serie è manifestazione particolare, si componga di una parte deterministica e di una parte stocastica: 𝑦 = 𝐷𝑒𝑡 + 𝜀 Si modella la parte deterministica, considerando l’altra un errore residuo, serialmente incorrelato, come nella regressione lineare: 𝐸[𝑦 ] = 𝐷𝑒𝑡 .  L’approccio moderno va a modellare l’autocorrelazione della serie direttamente sulla componente stocastica, assumendo che quella deterministica non esista o sia stata già rimossa o modellata con l’approccio classico (i due approcci sono spesso usati in successione): 𝑦 = 𝑓(𝜀). Dunque, in questo caso l’autocorrelazione degli 𝜺𝒕 è ammessa si focalizza sull’errore Analisi delle serie storiche – APPROCCIO CLASSICO. La parte deterministica (𝐷𝑒𝑡 ) si assume formata da 3 componenti latenti: 1. Il Trend [𝑇(𝑡)]: tendenza monotona (crescente o decrescente) di lungo periodo che rappresenta l’evoluzione strutturale di Y, determinata da fattori relativamente lenti e sistematici (es. crescita popolazione); 2. Il ciclo [𝐶(𝑡)]: la congiuntura economica in cui si colloca il fenomeno. Come sappiamo, il PIL e gli altri indicatori macroeconomici hanno un andamento caratterizzato dal ripetersi di fasi di prosperità, recessione, depressione e ripresa, che si ripresentano sempre in questo ordine, anche se ad intervalli poco regolari, anche per via dell’eterogeneità degli interventi pubblici, talvolta anticiclici. 3. La stagionalità [𝑆(𝑡)]: oscillazioni di periodo fisso inferiore all’anno, dovute a fattori climatici o sociali (chiusura scuole, festività, etc.). Pag. 65 a 83 La previsione puntuale. Previsione Statica e previsione Dinamica. Intervalli di previsione. Intervalli di previsione nella Regressione Lineare Multipla. ESEMPIO: Pag. 66 a 83 L’ERRORE DI PREVISIONE. Abbiamo già visto come si stima e si impiega l’errore di previsione in sample (stime dei residui di regressione). In modo del tutto identico, per la previsione out of sample, sia statica sia dinamica, prendiamo le osservazioni sulla variabile dipendente del campione di previsione 𝒀𝑻 𝒉, che fingevamo di non conoscere, e vi sottraiamo il vettore delle previsioni 𝒀𝑻 𝒉. L’errore di previsione, quindi, è: 𝑬𝑻 𝒉 = 𝒀𝑻 𝒉 − 𝒀𝑻 𝒉 La valutazione delle previsioni si basa sullo studio degli errori di previsione, come la valutazione della bontà di adattamento si basa sullo studio dei residui (errori di previsione in sample). L’unica differenza è che usiamo il Campione di Previsione invece che quello di stima. Si capisce qual è il mod. più adatto analizzando la quantità e la grandezza degli errori. LA VALUTAZIONE DESCRITTIVA DELLE PREVISIONI. La valutazione descrittiva delle previsioni: ESEMPIO Pag. 67 a 83 STIMA DI TREND E STAGIONALITÀ. Modelli di aggregazione delle componenti. Abbiamo visto che l’approccio classico all’analisi delle serie storiche assume che la serie sia scomponibile in una parte deterministica ed una stocastica. In ambito economico, la parte deterministica è considerata generalmente composta tra tre componenti: trend T(t), Ciclo C(t) e stagionalità S(t). le tre componenti sono latenti, cioè non osservabili. Quindi dobbiamo stimarle, specificando un modello teorico in cui compaiano. I due modelli principali sono:  Il modello additivo: 𝑦 = 𝑇(𝑡) + 𝐶(𝑡) + 𝑆(𝑡) + 𝜀  Il modello moltiplicativo: 𝑦 = 𝑇(𝑡) 𝐶(𝑡) 𝑆(𝑡) 𝜀 NB: nelle formule sopra, l’unica variabile osservata è 𝑦 ! Tutto il resto rimane da stimare. In questo corso tralasceremo la stima del ciclo, che è particolarmente complessa. In base ai dati disponibili nelle applicazioni particolari, potremmo ipotizzare che il trend stimato contenga anche il ciclo (trend-ciclo) o che non vi sia nessun ciclo. Modelli ridotti di aggregazione delle componenti. Dunque, il modello additivo e il modello moltiplicativo si riducono rispettivamente a: 𝑦 = 𝑇(𝑡) + 𝑆(𝑡) + 𝜀 𝑦 = 𝑇(𝑡) 𝑆(𝑡) 𝜀 Esempio. Se T(1) = 2 e S(1) = 0,5 Modello additivo  𝐸[𝑦 ] = 2 + 0,5 = 2,5 Modello moltiplicativo 𝐸[𝑦 ] = 2 ∗ 0,5 = 1 Il modello additivo è adatto a serie in cui l’ampiezza dell’oscillazione stagionale rimane costante, indipendentemente dalla grandezza di 𝑦 , ai vari t. Si noti che, leggendo i modelli da sin, il valore di 𝑦 è determinato sostanzialmente dal trend, essendo 𝐸[𝜀 ] = 0∀𝑡. Nel modello additivo, l’effetto stagionale viene aggiunto al trend, perciò qualunque sia il valore del trend (e quindi la grandezza di 𝑦 ), l’effetto stazionale è sempre uguale (nell’esempio, di far aumentare 𝑦 𝑑𝑖 0,5). Se 𝑦 = fatturato di ristorante, 𝑡 = 1 è nel weekend, S(1) = 0,5, il ristorante aumenta il fatturato mediamente di 0,5 (immaginiamo che la serie sia in migliaia di euro, quindi 500 euro) tutti i weekend, a prescindere dal fatto che il suo fatturato in un anno sia mediamente più basso e in altri più alto – circostanza catturata dal trend). Dunque, nel modello additivo, le variazioni deterministiche costanti alle frequenze stagionali sono espresse dalla componente stagionale, le variazioni casuali dalla componente erratica e tutto il rimanente di 𝑦 è nel trend. Perciò diciamo che trend e stagionalità hanno la stessa unità di misura di 𝑦 . Si noti che la proporzione 𝑺(𝒕) varia al variare di 𝒚𝒕, perché S(t) rimane uguale. Al contrario, se l’oscillazione stagionale cambia nel tempo, mantenendosi proporzionale alla grandezza di 𝒚𝒕, cioè mantenendo la proporzione 𝑺(𝒕) costante nel tempo, è adeguato un modello moltiplicativo. Siccome 𝐸[𝑦 ] = 𝑇(𝑡)𝑆(𝑡) → ( ) [ ] = 𝑻(𝒕) per convenzione, si assume che il trend sia espresso nella stessa unità di misura di 𝑦 (ne catturi il livello), mentre S(t) (ed 𝜀 ) sia espressa come proporzione del trend. Nell’es. S(1) = 0,5 significa che l’effetto stagionale è grande il 50% del trend, quindi durante i weekend il ristorante diminuisce il profitto del 50%. Si noti che l’effetto stagionale è positivo (nel senso che corrisponde ad una crescita 𝑦 rispetto al livello medio del periodo), deve essere superiore ad 1, perciò spesso S(t) si scrive come (1 + 𝑠 ) dove 𝒔𝒕 è la variazione di 𝒚𝒕 rispetto al livello medio del periodo, dovuta alla stagionalità.  Se non esiste nessun effetto stagionale, S(t) = 1, 𝑠 = 0 (nel modello additivo S(t)=0)  Se l’effetto stagionale è di far crescere 𝑦 rispetto al livello medio del periodo, S(t) >1, 𝑠 > 0 (nel modello additivo S(t)>0)  Se l’effetto stagionale è di far diminuire 𝑦 rispetto al livello medio del periodo, 0 < S(t) <1, −1 < 𝑠 < 0 (nel modello additivo S(t)<0. Spesso è utile usare modelli di composizione misti, cioè in cui componenti diverse sono aggregate con funzioni (prodotto o somma) diverse, per esempio: 𝑦 = 𝑇(𝑡) 𝑆(𝑡) + 𝜀 dove (𝑆(𝑡) = 1 + 𝑠 ) è proporzione del trend, mentre 𝑇(𝑡) 𝑒𝑑 𝜀 sono in livelli (nella stessa unità di misura di 𝑦 ). Oppure in cui una stessa componente, di solito stagionalità, è modellata in 2 parti di cui una moltiplicativa e l’altra additiva, per esempio: 𝑦 = 𝑇(𝑡) 𝑆(𝑡) + 𝑍(𝑡) + 𝜀 dove (𝑆(𝑡) = 1 + 𝑠 ) è proporzione del trend, mentre 𝑇(𝑡), 𝜀 𝑒 𝑍(𝑡) – parte additiva della stagionalità della serie – sono in livelli. è espressa nella stessa unità di misura del trend Pag. 70 a 83 A cosa servono le medie mobili nell’analisi delle serie storiche? Le medie mobili servono a “lisciare” la serie (smoothing), filtrandola, rimuovendo (se la serie è caratterizzata da trend lineari) o riducendo sensibilmente le oscillazioni di periodo m. Per esempio: Destagionalizzare le serie con medie mobili. Perciò, per eliminare (in caso di trend lineare nella serie storica) o ridurre le oscillazioni stagionali di una serie, basterà utilizzare il vettore delle medie mobili con m uguale al periodo (costante) delle oscillazioni stagionali. Ma qual è il periodo delle oscillazioni stagionali?  Spesso coincide con il numero delle osservazioni per ogni anno (nelle serie mensili m = 12, trimestrali m = 4 etc.);  Spesso, però, la frequenza intra-annuale della serie non coincide col periodo della stagionalità, per esempio potremmo avere una serie mensile del fatturato dei gestori delle spiagge, o degli impianti sciistici, o degli stadi, che hanno un’alta stagione e una bassa stagione. Oppure, se abbiamo una serie giornaliera, per esempio dei prezzi di attività ricreative, l’effetto stagionale potrebbe essere nei weekend o durante le festività. In tali casi il periodo stagionale può essere identificato tramite l’ispezione visiva della serie. In ogni caso si possono fare vari tentativi e vedere quale funziona meglio. A cosa servono le medie mobili nell’analisi delle serie storiche? Se le medie mobili sono impiegate per la destagionalizzazione della serie, dal vettore delle medie mobili sono rimosse o sensibilmente ridotte non solo le oscillazioni corrispondenti alla componente stagionale, ma anche una buona parte di quelle erratiche. Dunque, se nella serie originale erano presenti solo trend, stagionalità ed errore, il vettore delle medie mobili è una prima stima (approssimativa) del trend (𝑇(𝑡) ). Quindi, le medie mobili servono anche a:  Stimare la componente non filtrata (𝑇(𝑡) );  Stimare la componente filtrata (nel caso della destagionalizzazione, stagionalità ed errore: (𝑆, 𝜀): o Per differenza nel modello additivo: (𝑺, 𝜺)𝒕 = 𝒚𝒕 − 𝑻(𝒕)𝑴𝑴 = differenza lorda di stagionalità (al lordo degli errori); o Per rapporto nel modello moltiplicativo: (𝑺, 𝜺)𝒕 = 𝒚𝒕 𝑻(𝒕)𝑴𝑴 = coefficiente lordo di stagionalità (al lordo degli errori). Pag. 71 a 83 Medie mobili per la stima della componente stagionale. Medie mobili per la stima del trend – ESEMPIO. Alternative semplici per la stima della componente stagionale. In alternativa, possiamo stimare i coefficienti stagionali lordi:  Per differenza o rapporto (nel caso additivo/moltiplicativo) tra la serie originaria e la stima del trend ottenuta con metodo analitico;  Se la serie è approssimativamente stazionaria in media (trend assente o poco influente), per differenza o rapporto (nel caso additivo/moltiplicativo) tra la serie originaria per ciascuna frequenza stagionale e la media annuale.  Se la serie mostra una dinamica approssimativamente esponenziale (in progressione geometrica) ed il modello è moltiplicativo, si calcolano tutti i rapporti tra ogni 𝑦 e l’osservazione precedente: , si stima il trend con la media o mediana di tali rapporti per gli stessi momenti stagionali dei vari anni, infine si Pag. 72 a 83 stima la stagionalità per rapporto tra la serie originaria e la stima del trend così ottenuta. Stima del trend con metodo analitico. A fini previsivi (per le previsioni a medio-lungo termine), si può impiegare la stima del trend ottenuta con metodo analitico, ossia specificando un modello per 𝑦 in cui il trend è rappresentato da una funzione di t. Praticamente, qualsiasi funzione potrebbe essere usata per il trend, qui vediamo le più comuni. Nei casi pratici, si sceglie in base all’ispezione visiva della serie ed andando per tentativi, scegliendo quella che dà la misura di bontà di adattamento ai dati (se lo scopo è esplicativo) o di performance previsiva (se lo scopo è la previsione) migliroe. Lo stimatore andrà poi scelto in base alla funzione, quello OLS può essere impiegato solo per la funzione lineare e quelle lineare o linearizzabili nei parametri. Trend lineare o linearizzabili nei parametri. Trend nullo, per serie stazionaria in media: funzione costante: 𝐓(𝐭) = 𝐜. Trend monotono (crescente o decrescente): funzione lineare: 𝑻(𝒕) = 𝒄 + 𝜷𝒕. Proprietà: 𝑻(𝒕) − 𝑻(𝒕 − 𝟏) = 𝑐 + 𝛽𝑡 − 𝑐 + 𝛽(𝑡 − 1) = 𝑐 + 𝛽𝑡 − 𝑐 − 𝛽𝑡 + 𝛽 = 𝜷 Il coefficiente angolare è uguale alla differenza prima (tra due momenti successivi) del trend, ad ogni momento, perciò il trend lineare è adeguato se le differenze prime del trend sono costanti. Pag. 75 a 83 Livellamento esponenziale costante – scelta del parametro. Livellamento esponenziale per serie con trend. Se il processo di cui vogliamo prevedere future manifestazioni (a breve o a brevissimo termine) non è stazionario in media, ma caratterizzato da trend e stagionalità, dobbiamo usare una tecnica diversa di livellamento esponenziale. La più comunemente utilizzata è il modello di Holt e Winters. Holt e Winters modellano la serie storica con un trend localmente lineare, cioè come variazione tra 2 medie successive della serie, rappresentabile da una retta tra due osservazioni contigue, l’intercetta della retta è il livello medio della serie all’inizio di Pag. 76 a 83 tale sottointervallo ed il coefficiente angolare della retta è il trend localmente lineare (variazione del livello medio). Livellamento esponenziale – solo trend modello di Holt-Winters. Livellamento esponenziale – trend e stagionalità modello di Holt-Winters Pag. 77 a 83 Capitolo 5 Performance tecnica del processo produttivo: produttività ed efficienza. 5.1. La produttività e l’efficienza: concetti generali. 3. DETERMINATEZZA: assumono sempre valori finiti e non nulli, anche se un rapporto della media si annulla. 4 PROPORZIONALITA': se tutti gli indici di variazione semplici cambiando nella stessa proporzione, anche gli indici di Laspeyres e Paasche cambiano della pa stessa proporzione (per es. se tuttii 2!4 raddoppiano, PYs raddoppia. Tr 5. Se Lppèl'indice dei prezzi di Laspeyres, xPpp quello di Paasche e V è il valore monetario correntela prezzi di 8 del costo della produzione, allora: alpeaPXgaPppalXg = V? ndice delle quaniita di Fisher alpoaPXoaPpnalXn =V? infatti: «lpoaPps = P3 è alXnyPXn = X% Perciò, la media geometrica dei 2 indici consente una scomposizione univoca di V. Tale meda geometrica è l'indice di Fisher (con ponderazione incrociata): aFYg = valYaaPYB aFXg = JalXguPXg FY, nm _ AFYa Spree = L'indice di Fisher gode delle stesse proprietà degli indici di cui è composto, ma ne ha ulteriori 2: 6. REVERSIBILITA' DELLE BASI: se invece che dei 2 indici così costruiti faccio la media geometrica di quelli che risultano dall'uso degli inversi degli indici semplici di variazione (per es. in Laspeyres 24 invece di Ma) ottengo l'inverso dell'indice ve E di Fisher ,FXx*. Perciò 4FXgyFXg ! = 1. 1. REVERSIBILITA' DEI FATTORI: ovviamente /xLXgyPXg = JaPXgulXg Esempio: manlXao21 = 0.75 sonoPXoz1 = 0.75 > amoFXzo21 = VO75 +0.75 = 0.75 amolVao21 = 142 anaoPlaoz1 = 1.92 = 20aoFYaoxx = VIAZ: 192 = 1.65 tere, = 155 _ 220 2oaol PTFRÙI, = d7R Indici di Laspeyres, Paasche e Fisher - Crilicita Nonostante le numerose proprietà desiderabili di questi indici, ci sono anche delle criticità, che ne sconsigliano l’uso in particolari situazioni. » Assumono l'indipendenza dei prezzi dalle quantità (poco realistico, di solito ci sono sconti sulle grandi quantità). > Sono a ponderazione fissa, che non crea problemi nel breve periodo, ma se li usiamo per confrontare 2 tempi lontani tra loro, diventano scarsamente indicativi: in caso di inflazione, l'indice di Laspeyres è sistematicamente distorto in eccesso, quello di Paasche in difetto, quello di Fisher non compensa completamente. Viceversa in caso di deflazione. » Sono intransitivi (non godono della proprietà transitiva): ,/Xg gIXc # alXc all'interno di un insieme di aziende/serie di tempi. Metodo GEKS Per ottenere confronti coerenti (in cui vale la proprietà transitiva) tra 7 + 2 tempi/aziende diversi, si può adottare il metodo GEKS, ovvero fare direttamente la media geometrica degli indici, che rende ,JPTF{" transitivo: r 1 1GEKSYs = | [GIY. dr)? r 1 AGEKSxp = ] [un dXp)î tnt AGEKSYn IPTFEM = AB GEKSxg Così 1 PTFHM pTPTFEM = IPTFEM Pag. 80 a 83 Immaginiamo di avere osservato il processo produttivo di materazzini gonfiabili anche per gli anni 2018 e 2019 e di aver calcolato i seguenti indici delle quantità di Fisher: 20184X2019 = 0-5; 2019FX2020 = 0.8; 2020FX2021 = 0.75 20184 Y2019 = 0.7; 2019FY2020 = 1; 2020FY2021 = 1.65 2010GEKSy2021 = VO.7 + 1+1.65 = 1.05 2019GEKSx2021 = V0.5 + 0.8 + 0.75 = 0.67 asl PESI, = Indice di produllivita di Malmquist Mentre l'indice di Hicks-Moorsteen misura la variazione di produttività tra 2 imprese/tempi diversi confrontandone la capacità di trasformare input in output in senso assoluto, l'indice di produttività di Malmquist ne confronta la capacità relativa, ovvero l'efficienza E: Ea QIPTFpotm = a B Le misure di efficienza si ottengono con metodi parametrici o non paramettrici, deterministici o stocastici, che ricostruiscono, in base a varie assunzioni teoriche e ad un dataset reale, tutti i processi produttivi reali e potenziali di un certo settore produttivo, confrontandone la produttività per identificare la massima produttività possibile, data la tecnologia esistente. I processi (reali e potenziali) che raggiungonola massima produttività possibile costituiscono la frontiera efficiente. La vicinanza della produttività di un processo alla frontiera efficiente ne misura appunto l'efficienza. In realtà, l'efficienza si può misurare sotto 2 punti di vista: a Output-oriented: sulla frontiera efficiente si collocano i processi capaci di produrre la massima quantità di output possibile con una determinata quantità di input. Q Input-orientedì: sulla frontiera efficiente si collocano i processi capaci di produrre una determinata quantità di output con la minima quantità di input possibile. L'indice di produttività di Malmquist si può costruire sia con misure di efficienza output-oriented OE, sia con quelle input-oriented IE. Ovviamente, l'efficienza di un processo dipende molto dalla tecnologia. Se si confronta l'efficienza di 2 aziende nel medesimo tempo, la tecnologia esistente (non necessariamente implementata dalle 2) è la medesima per entrambe. Ma se si confrontano 2 tempi diversi, è possibile che la tecnologia esistente al tempo 8 sia più avanzata ed efficiente di quella altempo A. Considerando queste 2 variabili, per confrontare l'efficienza di 1 0 2 processi in 2 tempi diversi possiamo costruire 4 indici di produttività di Malmquist, a seconda che entrambe le misure di efficienza siano calcolate: * rispetto alla tecnologia esistente al tempo A, oppure rispetto a quella esistente al tempo B, = inmodo input-oriented o output-oriented. L'influenza del cambiamento tecnologico sulle misure di efficienza non è desiderabile al fine di valutare la capacità tecnica di un'impresa di trasformare input in output (fai meglio che puoi con quello che hai?) Perciò è utile fare una media (geometrica) tra indici di Malmquist ottenuti con misure di efficienza di uguale orientamento, in modo di avere per riferimento una tecnologia media. Ma perché la media geometrica? Perché la media geometrica dei rapporti è il rapporto delle medie geometriche (dei numeratori e dei denominatori). Indice di Cambiamento d'Efficienza In pratica, per scorporare la variazione di efficienza dovuta al cambiamento tecnologico da quella dovuta alla ‘bravura’ dell'impresa: Ci servono 2 dataset: uno con input ed output di un campione di processi reali al tempo A e uno uno con input ed output di un campione di processi reali al tempo 8. Dobbiamo calcolare la misura di efficienza dell'impresa al tempo A utilizzando il primo dataset EAe quella al tempo 8 utilizzando il secondo dataset EB (ed il medesimo algoritmo). Quindi, possiamo confrontare la vicinanza della produttività dell'impresa rispetto alla frontiera efficiente contemporanea (quindi in riferimento alla tecnologia esistente contemporaneamente alla produzione dell'azienda) nei 2 tempi, con l'indice di cambiamento di efficienza: EB ICE =— s EA Pag. 81 a 83 Esempio con DEA in STATA 20 fa n rta (€ 3 RE 17100 AI A tl) e Input-oriented . _ theta 2021 _ 0161765 _ Perdita del 79% nazo!CEsoan (mu ©) = Freta 2020 > 0777778 — 0°! d'efficienza Output-oriented _ theta 2021 Perdita del 83% assolCEguzs (dim €) = ESITI i Indice di Progresso Tecnico Invece, la variazione di efficienza dovuta al cambiamento tecnologico è data dalla distanza (relativa) tra la frontiera efficiente al tempo A e quella al tempo 8 Zit4t£ se output-oriented, in corrispondenza dei valori di ascissa pari alle quantità di input (se output-oriented) o output (se input-oriented) dell'impresa sotto indagine x4,xg. Confrontiamo dunque l'altezza delle 2 frontiere su entrambi i punti e ne facciamo la media geometrica, ottenendo l'indice di progresso tecnico: Ipry= |Paxe Ca) Yuaxo 6) 4 Vuaxa4) Yuaxa8) Riconduciamoci ad una generica misura di efficienza: OE seca = —& Vmax.A(XA) IYatax,o (xa) Ynsax.p (x) Pmax.5 (xa) Ysax8 8) Va Ve _ Va Va Vsraxa%a) Yuaxa8) Va Vs |YsaxaCa) Vmaxa8) © Da Ve AIPTg = OEateca OEprecd _ OExtec8 OEg,tec8 AIPTFRE APTFROm, Media geometrica dei 2 indici di Malmquist output-oriented, con le 2 tecnologie. Se i rendimenti di scala sono costanti (l'output varia nella stessa proporzione degli input), l'Indice di Malmquist output-oriented assume lo stesso valore di quello input- oriented. Esempio con DEA in STATA Input-oriented Fsm 202: Va020) Asamzo31 Oro? rozolPTaor: (dmu €) = |xtt112021 02020) Xu1n2021 02021) _ ume Pazza (ine CI ssaa 03009) “ev2one 0023) Pag. 82 a 83
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved