Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Domande esame orale di statistica per il business, Appunti di Statistica Per L'impresa

Domande e risposte per la preparazione all'esame orale di statistica per il business. Sono presenti argomenti di tutti i moduli trattati

Tipologia: Appunti

2022/2023

In vendita dal 30/12/2022

alfio997
alfio997 🇮🇹

5

(2)

4 documenti

Anteprima parziale del testo

Scarica Domande esame orale di statistica per il business e più Appunti in PDF di Statistica Per L'impresa solo su Docsity! Qual è la tecnica di campionamento per una catena di montaggio? Il campionamento sistematico è la tecnica di campionamento per una catena di montaggio e viene utilizzato proprio nei processi di produzioni in serie, a nastro e in tipici problemi di controllo della qualità di un processo o di un prodotto. Tale tecnica di campionamento prevede l’estrazione delle unità secondo un passo di campionamento K= N/n. In una catena di montaggio qual è la distribuzione di probabilità per verificare la presenza di elementi difettosi Per verificare la presenza di elementi difettosi in una catena di montaggio si ricorre alle distribuzioni discrete; per esempio la distribuzione binomiale, che viene spesso utilizzata nel controllo statistico di qualità. Risulta essere adatta per il campionamento su una popolazione di ampiezza finita, dove p rappresenta la frazione di elementi difettosi o non conformi presenti nella popolazione. Un altro esempio è la distribuzione ipergeometrica che si applica quando si è a conoscenza del numero di elementi che presentano una certa caratteristiche D, per esempio il numero di oggetti difettosi. La funzione ci dice quale sarà la probabilità (senza rimessa o in blocco) che estraendo a sorte dal ciclo di produzione un’unità essa è difettosa. Un'altra distribuzione discreta utile nel controllo di qualità è la distribuzione di Poisson che consente di definire la distribuzione del numero di difetti o non conformità che si trovano in un unità di prodotto. Infine, la distribuzione binomiale negativa (di Pascal) è utile come modello statistico di riferimento per il conteggio di elementi di non conformità in un’unità. In questo caso si fissa il numero di successi e si ottiene la dimensione del campione richiesta per raggiungerli. Se non conosciamo alcunché della popolazione e dobbiamo rilevare la presenza di percentuali di difettosità, qual è la stima della dimensione campionaria? La stima della dimensione campionaria più adatta a rilevare la presenza di % di difettosità è quella della dimensione campionaria nel caso di frequenze relative, in cui è possibile analizzare il numero di pezzi difettosi o la proporzione di pezzi difettosi in un ciclo di produzione. In tale formula, p rappresenta la proporzione di elementi che presentano una specifica caratteristica (conformità, difettosità). In relazione alla popolazione, sapendo che essa è strutturata su tre livelli di disomogeneità interna, quale tecnica di campionamento utilizziamo? Si utilizza la tecnica di campionamento a più stadi o a grappoli per segmentare la popolazione in 3 livelli, diversi tra loro e omogenei al loro interno. Quali parametri influenzano la dimensione campionaria per popolazioni finite? I parametri che influenzano la dimensione campionaria per popolazioni finite sono: variabilità, alfa ed epsilon. Come cambia la dimensione campionaria al variare di alfa, a parità di variabilità? A parità di variabilità, se alfa diminuisce la dimensione campionaria aumenta. Infatti, se si modifica la probabilità di successo che il campione sia rappresentativo della popolazione (1-alfa) dal 95% al 99%, quindi modificando alfa dal 5% all’1%, la dimensione campionaria aumenta. Se dovessi avere due campioni e con variabilità differenti, a quali tra questi attribuisci migliore qualità a parità di n? A parità di n, quello con più bassa variabilità è il campione che presenta una migliore qualità Cosa misura l’errore di campionamento e qual è la sua importanza? L’errore di campionamento misura l’errore sulla caratteristica della popolazione ed è rappresentato dalla differenza tra i risultati ottenuti dal campione e la vera caratteristica della popolazione che vogliamo stimare. L’errore di campionamento è importante, in quanto un campione errato farà produrre dei risultati non più probabili, cioè risultati che aumentano la probabilità di errore nella rappresentatività degli stessi rispetto alla popolazione. Perché campionare? Il campione è un sottoinsieme della popolazione che viene estratto da questa. Si studia il campione per estrapolare informazioni e generalizzarle rispetto alla popolazione. Il campionamento statistico consente di valutare l’affidabilità del campione e il rischio di errore, di ottimizzare il numero di controlli da effettuare considerato il rischio che si decide di tollerare, di effettuare l’inferenza sui parametri della popolazione su base oggettiva Da un lato abbiamo la stima di parametri della popolazione di riferimento o stime intervallari, non conosciuti o non determinabili praticamente, ricavata dalle statistiche del campione, che è il procedimento con il quale si tenta il passaggio dal campione alla popolazione; dall’altro, il controllo o la verifica di ipotesi attraverso i dati campionari che si traduce nella formulazione di congetture su un parametro incognito della popolazione. In concreto, chi controlla deve giudicare la correttezza di un valore del bilancio in base all’esame di un campione probabilistico dei documenti corrispondenti. (collegare ai vantaggi dell’indagine campionaria) Punti di forza e di debolezza del campionamento Punti di forza: si riducono i costi, si risparmia tempo e mezzi; l’attendibilità delle informazioni può essere misurata e controllata; il campione è più facile da gestire rispetto ad un censimento completo della popolazione. Punti di debolezza: rischio di errore, rischio di ottenere risultati poco significativi; la dimensione del campione deve rispettare le stesse caratteristiche numeriche della proporzionalità della popolazione, altrimenti si rischierebbe di ottenere campioni non rappresentativi della popolazione di riferimento. Quando un campione si definisce statisticamente rappresentativo? Definisci sotto il piano parametrico e numerico Campione rappresentativo: estratto con criterio oggettivo (proprietà di estrazione dei campioni e non delle unità statistiche). L’obiettivo dell’analista è quello di generare dei campioni rappresentativi, ovvero campioni che tendono ad avere una quanto più alta omogeneità nell’informazione statistica. Più piccola è la variabilità e più omogeneo è il campione osservato, quindi se la variabilità dovesse risultare alta indicherebbe una forte disomogeneità, la cui causa va ricercata dall’analista. La dimensione del campione deve rispettare le stesse caratteristiche numeriche della proporzionalità della popolazione, altrimenti si rischierebbe di ottenere campioni non rappresentativi della popolazione di riferimento. Le statistiche campionarie devono tendere in termini di risultato ai parametri della popolazione. Si distingue: - Rappresentatività parametrica: i parametri media e variabilità del campione devono tendere ad essere quanto più simili e vicini alle caratteristiche della popolazione (media e variabilità della popolazione); - Rappresentatività numerica: la dimensione del campione deve soddisfare le proprietà degli stimatori, tale che, al tendere di n (dimensione del campione) verso N (dimensione della popolazione), le statistiche campionarie devono tendere ad eguagliare le statistiche della popolazione. Sostanzialmente, più è grande il campione estratto dalla popolazione e maggiori sono le informazioni a disposizione. Se dovessi verificare se due processi di produzione producono con i medesimi risultati quale test adotti per dimensioni di n inferiori alle 30 unità? Il test t di student, che nasce per piccole dimensioni di n e si applica per dimensioni campionarie inferiori alle 30 unità. Se dovessimo lavorare su più di due campioni, come verifico la significatività dell’uguaglianza in media tra questi? E se alla verifica di ipotesi il test dovesse risultare significativo posso affermare che i campioni provengono dalla medesima popolazione? Lavorando su più di 2 campioni, la significatività dell’uguaglianza in media tra questi si può verificare con l’anova test (test dell’analisi della varianza). Se alla verifica di ipotesi, il test dovesse risultare significativo significa che i campioni non provengono dalla stessa popolazione, perché si accetta l’ipotesi alternativa, confermando che i campioni provengono da popolazioni con caratteristiche in media differenti. Nello studio della variabilità come essa si può configurare nell’anova test? L’Anova test consiste nella suddivisione della variabilità totale delle osservazioni in una variabilità attribuibile alle differenze fra gruppi (l’effetto del trattamento) e in una variabilità attribuibile alle variazioni all’interno dei gruppi (dovuta al caso, errore sperimentale), ovvero la variabilità all’interno di ogni singolo gruppo. La variabilità totale è data quindi dalla somma di queste 2 variabilità. Perché nella verifica sulla similarità su 4 medie si utilizza il test F? (è legata a quella di prima) Il valore empirico nell’analisi del test della varianza si definisce con la funzione F, data dal rapporto tra la varianza fra i gruppi e la varianza nei gruppi. Per verificare se esiste similarità su 4 medie, l’anova test ricorre al test F di Snedecor, che prevede il confronto tra il valore empirico del test F con il suo valore teorico. In questo modo si verifica sotto l’ipotesi nulla l’uguaglianza/similarità su queste 4 medie, contro l’ipotesi alternativa che esiste la differenza tra queste medie. Il valore empirico del test, affinché si accetti l’ipotesi nulla, deve essere inferiore al valore teorico (F osservato minore di F critico) e quindi p-value minore di alfa. Al fine di definire due processi produttivi in variabilità simile quale test si adotta? Si adotta il test CHI-QUADRO. Cos’è una serie storica e perché è importante saperla interpretare per l’analista? Una serie storica è un insieme di variabili ordinate in relazione al tempo ed è importante saperla interpretare perché i dati possono essere prolungati con le tecniche di analisi delle serie temporali. Come smussiamo una serie storica? Per smussare una serie storica al fine di fornire all’analista un’impressione dei movimenti di lungo termine della serie stessa (cioè informazioni circa la tendenza di fondo dei dati osservati) si utilizza la tecnica del livellamento esponenziale, un metodo statistico endogeno di breve termine, che analizza serie temporali di dati per fornire delle previsioni circa il loro andamento futuro. Lo scopo del livellamento esponenziale è di eliminare le fluttuazioni casuali e conservare la struttura consolidata della serie storica. Anche se non è basato su di un forte modello teorico, riesce a conservare memoria di tutti i valori passati e degli apprendimenti dovuti agli errori. Cos’è una matrice di correlazione e come si interpreta sia sotto il profilo analitico che inferenziale? La matrice di correlazione serve all’analista per scremare dal dataset delle relazioni esistenti fra le m variabili e la Y quelle variabili che non risultano correlate o non correlate in modo statisticamente significativo. E’ una tabella che indica i coefficienti di correlazione tra 2 variabili. Ogni cella della tabella mostra la correlazione tra le 2 variabili. Coi coefficienti di correlazione si misura la forza della relazione che esiste tra le variabili ed essi ci dicono se le variabili sono in relazione o meno e se la relazione è direttamente proporzionale (segno +, correlazione positiva, al crescere di una variabile cresce l’altra) o inversamente proporzionale (segno -, correlazione negativa, al crescere di una variabile diminuisce l’altra). I coefficienti di correlazione si interpretano in valore assoluto (non in %). Sotto il profilo inferenziale si applica il test F, in cui si può notare come i coefficienti di correlazione siano statisticamente significativi (F osservato > F critico) o meno (F osservato < F critico). In quest’ultimo caso non va considerato nella costruzione del modello di regressione. Nell’ambito della verifica di ipotesi, si pone sotto H0 che il coefficiente di correlazione, rho è =0 contro l’ipotesi alternativa che rho è diverso da 0. Quale unità di misura attribuiamo alla relazione (pari a 1,7) tra il fatturato (migliaia di euro) e gli investimenti in ricerca e sviluppo (migliaia di euro)? il coefficiente di correlazione può assumere valori compresi tra -1 e +1 (una correlazione 1,7 non può mai esistere è una domanda trabocchetto) Quale unità di misura attribuiamo all’incidenza (pari a 1,7) tra il fatturato (migliaia di euro) e gli investimenti in ricerca e sviluppo (migliaia di euro)? Si attribuisce la stessa unità di misura della variabile dipendente, in questo caso migliaia di euro. Con quale test misuri la significatività del modello regressivo stimato? Spiega quale variabilità influenza la scelta della significatività del modello. (ci sono tre tipi di variabilità e dovreste ricordare quale…) La significatività del modello regressivo stimato si misura col test F. Applicando questo test per la significatività globale viene mostrato se c’è un rapporto lineare tra tutte le variabili X considerate insieme e Y (H0: coefficienti regressivi =0, nessuna relazione lineare; H1: almeno un Beta con i diverso da 0, ovvero almeno una variabile indipendente influenza Y). L’F nel rapporto tra varianze ci dice se il valore empirico del test è inferiore o uguale al suo valore teorico cade nella zona di accettazione, se il valore empirico del test è maggiore del valore teorico cade nella zona di rigetto. Si considera il p-value, che se minore di alfa si accetta l’ipotesi nulla ed il modello regressivo stimato è statisticamente significativo. Il test F è dato dal rapporto tra la varianza tra i gruppi e la varianza entro i gruppi, in questo caso si ha il rapporto tra la varianza derivante dal modello regressivo e la varianza dovuta a fattori erratici e quindi esogeni alla relazione. Quali valori può assumere il coefficiente regressivo e quali proprietà possiede? Perché per l’analista è importante conoscere la proprietà del coefficiente regressivo? Il coefficiente regressivo può assumere valori compresi tra -infinito e +infinito. Per l’analista è importante conoscere la proprietà del coefficiente regressivo ai fini dell’interpretazione. Tale proprietà è la proprietà è quella dell’univocità: i coefficienti regressivi hanno carattere univoco, nel senso che la relazione che esercita qualsiasi variabile indipendente X sulla dipendente Y non può dirsi uguale alla relazione che Y esercita sulla X. Qual'è la differenza tra il coefficiente regressivo e il coefficiente di correlazione per l’analista? La differenza fra i due coefficienti è abissale, entrambi misurano la relazione fra una o più variabili ma producono informazioni differenti. I coefficienti di correlazione misurano la forza della relazione che esiste fra due o più variabili, essi ci dicono se due o più variabili sono in relazione o meno e se la relazione è direttamente o indirettamente proporzionale. Ci dicono se al crescere di una variabile cresce anche l’altra ma non ci dice di quanto. Mentre i coefficienti regressivi possono assumere valori compresi fra -∞ e + ∞, i coefficienti di correlazione assumono valori tra -1 e +1. Più tende il valore verso l’unità più si dice che la relazione fra le due variabili è forte, se verso +1 è direttamente proporzionale mentre se verso -1 è inversamente proporzionale. Mentre i coefficienti di regressione godono dell’univocità i coefficienti di correlazione godono della biunivocità. La biunivocità ci dice che un coefficiente di correlazione YX è uguale al coefficiente di correlazione XY. Qual è la differenza tra valutare e verificare la bontà dell’adattamento di un modello regressivo? Valutando la bontà di adattamento si valuta la capacità del modello di regressione di saper interpolare i dati osservati. La capacità di adattamento ai dati della retta di regressione può essere valutata rappresentando in un grafico i residui al fine di rivelare l’appropriatezza del modello lineare. Per verificare la bontà di adattamento si ricorre al coefficiente di determinazione R Quadro (varia tra 0 e 1) o frazione di varianza spiegata, che rappresenta la capacità del modello regressivo di poter spiegare i valori osservati. Tale indice si calcola rapportando la differenza tra i valori stimati e quelli medi alla differenza tra valori osservati e valori stimati: più tende verso 0 e più la capacità di adattamento è scarsa, più tende ad 1 e più si ha una migliore bontà di adattamento. Perché l’analista deve tenere sotto controllo psi? (è la parte di varianza non spiegata) L’analista deve tenere sotto controllo psi per vedere se pesa di più la varianza spiegata o quella non spiegata sulla varianza totale. Se psi ha un valore elevato o prossimo ad 1 significa che si ha una scarsa bontà di adattamento di un modello lineare sui dati osservati. Come definiamo le ipotesi nella significatività dei coefficienti regressivi e quale decisione intraprende l’analista in relazione ai risultati? Per verificare la significatività dei coefficienti regressivi si verifica con il test T l’ipotesi nulla tale che il coefficiente regressivo Beta sia =0, contro l’ipotesi alternativa che il coefficiente sia diverso da 0. Se si accetta l’ipotesi nulla, il parametro si dirà statisticamente non significativo. L’analista decide di rimuovere dal modello tutte le variabili i cui parametri regressivi risultano statisticamente non significativi. Tali parametri sono approssimabili a 0 e pertanto non incidono sulla variabile dipendente Y. Con quale test verifichi la significatività dei coefficienti di regressione e quale regola di decisione utilizzi? La significatività dei coefficienti di regressione si verifica con il test t di Student al fine di mostrare se esiste una relazione lineare significativa tra la variabile Xi e Y. La regola di decisione è: Ho:Bi = 0 (nessuna relazione lineare); H1:Bi diverso da 0 (fra Xi e Y esiste una relazione lineare). Cosa indica rquadro e rquadro corretto e cosa non indica? L’R2 e R2-corretto dicono se le variabili esplicative sono idonee a prevedere (o “spiegare”) i valori della variabile dipendente. Quale significato assume l’intercetta nella chiave di lettura dell’analista? Formulare un esempio anche sotto il profilo inferenziale (per verificare l’intercetta si utilizza il test t) L’intercetta, Beta con 0, rappresenta il valore che assume la variabile dipendente Y indipendentemente dalle variazioni delle variabili indipendenti x. L’intercetta, così come tutti gli altri coefficienti, vanno interpretati in relazione all’unità di misura di Y. Sotto il profilo inferenziale, si ha l’ipotesi nulla che Beta0 =0, contro l’ipotesi alternativa che Beta0 è diverso da 0. Se si accetta l’ipotesi nulla, il parametro dell’intercetta sarà approssimabile a 0 e pertanto non incide sulla variabile dipendente Y. Per verificare la significatività del parametro Beta0 si utilizza il test t di Student: se il valore empirico del test t non rientra nel range dei valori critici, si rifiuta l’ipotesi nulla ed il parametro è statisticamente significativo. In un processo produttivo con quale grafico rappresento diverse statistiche descrittive e quali? Spiegare con un esempio il significato Per rappresentare diverse descrittive in un processo produttivo è possibile utilizzare 3 diversi metodi grafici: grafici rami e foglie, box plot e istogrammi. Con il grafico rami (una o più cifre iniziali) e foglie (le rimanenti cifre) abbiamo un’impressione visiva della forma della distribuzione (per esempio approssimativamente simmetrica con un solo valore di massimo), della dispersione o variabilità, della tendenza centrale (media dei dati). Il box plot è una rappresentazione grafica che presenta importanti indicatori dei dati osservati, quali tendenza centrale o locazione, dispersione o variabilità, allontanamento dalla simmetria distributiva e identificazione delle osservazioni anomale che sono distanti dal nucleo centrale dei dati. Tale grafico si rappresenta come una scatola rettangolare che presenta i 3 quartili, il valore minimo e massimo, dove l’ampiezza del rettangolo rappresenta la differenza interquartile con il primo quartile Q1 a sinistra (o in basso) ed il terzo quartile Q3 a destra (o in alto). Vi è poi una linea intermedia che corrisponde al secondo quartile Q2 e fornisce una dimensione della mediana. Osservando questa linea centrale è possibile ottenere informazioni sulla simmetria/asimmetria, attenzionando la distanza tra valore centrale e i valori dell’estremità (sinistra e destra). Se infatti le 2 distanze rispetto ai valori dell’estremità sono diverse vi è asimmetria. 2 segmenti esterni al rettangolo si estendono ai valori estremi minimo a sinistra e massimo a destra (baffi). Il box plot riesce quindi a sintetizzare diverse statistiche descrittive. I grafici box plot sono utili per confrontare i dati disponibili. Con un istogramma a barre è possibile osservare come si distribuiscono le frequenze. Più alte sono le barre, più la frequenza è elevata. Osservando l’andamento delle barre è possibile notare la presenza di asimmetria se ad esempio prima le frequenze crescono e poi decrescono. Di solito in presenza di un insieme di dati relativamente grande, la forma dell’istogramma non dipenderà molto dal numero delle classi. Tuttavia, per insiemi di dati poco numerosi, gli istogrammi possono variare in modo notevole nella forma se il numero e/o l’ampiezza delle classi cambia. In relazione alla definizione moderna della qualità come cambia la distribuzione di probabilità associata alle misure di valutazione del prodotto? La distribuzione di probabilità associata alle misure di valutazione del prodotto cambia passando dal campionamento in accettazione alla programmazione degli esperimenti. All’inizio i cambiamenti della distribuzione è platucurtico (variabilità più ampia), passando al controllo statistico del processo la distribuzione ha un andamento normocurtico (variabilità più ristretta). In fine si giunge alla fase di programmazione degli esperimenti in cui si giunge ad una condizione leptocurtica, dove si raggiunge la minore variabilità. Più esperimenti si svolgono più la curva relativa alla fase di programmazione degli esperimenti diventa più appuntita. Con quali scale definisco delle grandezze qualitative e quantitative? Qualitative: nominale e ordinale; quantitative: di intervalli e di rapporti. Le scale di misurazione delle modalità di un carattere si dividono in: nominale quando fra le modalità di un carattere qualitativo non è possibile istituire nessun ordinamento (ad esempio il sesso). Prendendo due unità statistiche della popolazione è solo possibile affermare se posseggono o meno la stessa modalità. In questi casi le modalità si possono scrivere in un ordine qualsiasi. ordinale quando è possibile istituire un ordine naturale fra le modalità di un carattere qualitativo (ad esempio il titolo di studio). N.B.: Su tali modalità non ha senso effettuare differenze e rapporti, ma è solo possibile impiegare le relazioni di “>”, “<”, “=”. di intervalli quando le modalità di un carattere quantitativo si posizionano su un continuum in cui lo 0 è convenzionale perché non rappresenta l’assenza del carattere (ad esempio la temperatura espressa in gradi Celsius). Su tali modalità ha senso valutare delle differenze, corrispondenti a lunghezze di intervalli. di rapporti quando le modalità di un carattere quantitativo si posizionano su un continuum in cui lo zero è assoluto perché rappresenta l’assenza del carattere (ad esempio il reddito e la temperatura espressa in gradi Kelvin). Quali sono le fasi per la costruzione di una indagine di mercato? Le fasi per la costruzione di un indagine di mercato sono 3. 1° FASE: Nella fase preliminare occorre documentarsi, definire il tema e i sottotemi. Lo studio a monte di usi e costumi rappresenta la base di qualsiasi indagine di mercato, se lo studio prevede la formulazione di questionari è fondamentale sapere a monte quali sono le domande da porre e queste devono essere formulate in relazione ad un obiettivo chiaro. Successivamente si formulano ipotesi, dopo la costruzione del questionario è necessario. 2° FASE: Nella fase di programmazione si individuano i criteri di rilevazione delle unità statistiche attraverso l’esame di documenti, interviste dirette (dirette, postali e telefoniche) e indirette (questionario tramite intervistatore e postale). - L’intervista postale ha due pregi: ha un basso costo e comodità delle risposte. - L’intervista telefonica prevede un questionario breve, per esempio sulla customer satisfaction. - Il metodo del sopralluogo è un metodo poco utilizzato perché più costoso, prevede infatti che vi sia un osservatore che monitori il comportamento in risposta dei soggetti. - Il metodo del libretto o panel prevede indagini di tipo continuativo ma crea problemi di distorsione al campionamento delle unità intervistate, è un metodo molto poco utilizzato perché presuppone il rapporto diretto con l’interessato comportando costi rilevanti. Importante è il collaudo del questionario per verificarne l’idoneità, la facilità di elaborazione delle risposte, la semplicità nella compilazione, la veridicità rispetto agli obiettivi su un campione detto “pilota”. Il campione pilota non è mai definito numericamente, ha una numerosità sempre soggettiva e non può mai definirsi rappresentativo della popolazione. Esso è utile solo per verificare alcune caratteristiche del questionario quindi l’idoneità del questionario e com’è strutturato. Viene somministrato ad un campione ristretto di elementi tramite interviste con domande complesse, è prevista la correzione e l’eventuale riverifica. Il rilevatore deve essere una persona istruita che deve comprendere l’importanza della riservatezza dei dati, sugli obiettivi, l’Ente che svolgerà la rilevazione e gli scopi. 3° FASE: Il questionario deve essere semplice, non deve contenere domande imbarazzanti, la scelta del numero e l’ordinamento delle domande è importante. Chi somministra il questionario deve interrogare esattamente le persone indicate sul piano di lavoro, deve avere un’adeguata conoscenza dei contenuti, non deve influenzare le risposte o insistere in qualche modo sull’intervista, evitare suggerimenti, buona cultura e simpatia. Definisci l’incertezza e le sue definizioni? L’incertezza è un elemento che caratterizza un investimento e consiste nella realizzazione nel futuro di diversi scenari economico-aziendali e tecnici di cui l’azienda deve tenere conto per la valutazione della profittabilità. L’incertezza può essere definita attraverso 3 varie forme: incertezza totale, incertezza pura, incertezza informata. - L’incertezza totale si verifica quando il soggetto che deve compiere un’azione non conosce le conseguenze che ne potranno derivare. - L’incertezza pura si verifica quando il soggetto è in grado di immaginare le conseguenze possibili delle proprie azioni. - L’incertezza informata si verifica quando il soggetto conosce, oltre le conseguenze, anche le rispettive probabilità. Come si definisce la capacità di un processo? La capacità di un processo (Cp) è riferita alla capacità del processo di produrre in una condizione di sotto controllo ed è pari alla differenza tra limite superiore e limite inferiore diviso 6 volte sigma. Se l’indice Cp è maggiore di 1 significa che il processo utilizza meno del 100% dei limiti di tolleranza per cui solo poche unità di non conformi vengono prodotte da questo processo. Se l’indice Cp=1 significa che il processo utilizza tutta la banda di tolleranza (se la variabile oggetto di studio ha distribuzione normale, circa lo 0,27% di unità prodotte saranno non conformi). Se l’indice di capacità Cp è minore di 1 significa che il processo utilizza più del 100% della banda di tolleranza per cui verranno prodotte un gran numero di unità non conformi. In quest’ultimo caso occorre tenere sotto controllo il processo. Cp varia tra 0 e +infinito. Cos’è lo spc? Lo Statistical Process Control (SPC) è l’insieme di tecniche volte a misurare ed identificare i fattori che generano variabilità. L’SPC permette di ridurre la variabilità del processo e di stabilizzarla entro certi limiti e utilizzando contemporaneamente tecniche di programmazione degli esperimenti è possibile ridurre ulteriormente la variabilità. Come interpreti una carta di controllo per attributi? Descrivi in modo approfondito tutti gli elementi caratterizzanti. Le carte di controllo per attributi si applicano per misurare l’esistenza di conformità o non conformità, quindi riguarda la frazione di conformi e non conformi. Si parla quindi carte che analizzano la qualità del prodotto in relazione alla difettosità. In questo caso l’obiettivo dell’analista è quello di processare un’intera campionatura di lotti e verificare quanta parte di essi risulta, per esempio, non conforme.La frazione di non conformi viene definita dal rapporto del numero di non conformi presenti in una popolazione e il numero di pezzi che compongono quella popolazione. Le basi statistiche che sottostanno alle carte di controllo per frazioni di non conformi sono riconducibili alla distribuzione binomiale. Supponiamo che una carta operi nel tempo in modo stabile, così che la probabilità di ottenere un pezzo non conforme sia pari a p e che le unità prodotte siano tra loro indipendenti. Ogni unità prodotta è allora la realizzazione di una variabile casuale di Bernoulli di parametro p. conveniente ricorrere alla statistica, usando la teoria dei campioni. Per studiare la conformità o la non conformità utilizzeremo il campionamento per attributi mentre se volessimo valutare l’attendibilità del valore si utilizza il campionamento per variabili. Cos’è il discovery sampling? Il discovery sampling fa parte dei campionamenti esplorativi, che hanno lo scopo di indagare sull’universo e di porre in rilievo i caratteri qualitativi e quantitativi dello stesso universo: ciò costituisce una fonte di informazioni per orientare il soggetto sulle successive indagini che occorre effettuare per raggiungere i prefissati scopi che hanno sollecitato l’indagine campionaria. In altri termini, il soggetto, che non conosce la composizione dell’universo, cerca di scoprirla attraverso l’indagine campionaria. Viene utilizzata spesso quando non sono stati rilevati errori nel campione e non è efficace per verificare errori di cui il revisore non ne è a conoscenza Il discovery sampling ha come obiettivo quello di tenere conto dell’errore tollerabile, della probabilità di accettare una popolazione non perfetta e di mettere in rilievo i caratteri qualitativi e quantitativi del medesimo universo, per orientare il soggetto alle successive indagini sul giudizio da apportare su quel bilancio. L’ipotesi nulla è l’ipotesi di avere una frazione di errore pari a 0 contro l’ipotesi alternativa che può essere maggiore di 0. È un test unilaterale. La regione critica sarà una regione nella quale il numero degli errori nel campione casuale è assunto in valore assoluto >0 = a 1. Cosa sono i modelli ordinali e logit? I modelli ordinali sono modelli di regressione la cui variabile risposta(Y) è una variabile ordinale, mentre i modelli logit sono modelli di regressione non lineari la cui variabile risposta è rappresentata da una variabile dicotomica (dummy), che può assumere due unici valori: 0 e 1. Perché l’analista attribuisce all’ipotesi nulla quella più verosimile? L’ipotesi nulla è l’ipotesi sottoposta a verifica dall’analista che generalmente coincide con lo stato delle cose ed è quindi quella più verosimile. Si riferisce sempre ad un parametro specifico della popolazione e contiene sempre un segno di = relativo al valore specificato del parametro della popolazione. Quando applico la distribuzione di Poisson e quella binomiale? Entrambi vengono applicate nell’ambito del controllo statistico della qualità, entrambe sono distribuzioni discrete ossia possono assumere solo valori interi che vanno da 0 a n. La distribuzione di Poisson si applica nella definizione della distribuzione del numero di difetti o non conformità che si trovano in un’unità di prodotto. La distribuzione di Poisson si usa nel caso di eventi rari, quando la probabilità di verificarsi degli eventi è bassa, infatti viene chiamata anche legge degli eventi rari. La probabilità del verificarsi della non conformità tende a 0 nel caso della programmazione degli esperimenti, in questo caso il processo si definisce standardizzato in variabilità e la probabilità del verificarsi degli eventi negativi è molto piccola e rara. Si presuppone che nel controllo della qualità, il processo abbia eventi quanto più rari possibili nel verificarsi, perché se non fosse raro il processo non può definirsi sotto controllo (è certamente fuori controllo). La distribuzione binomiale si applica quando non si è a conoscenza delle caratteristiche della popolazione, ma si è a conoscenza della dimensione del carattere oggetto di osservazione (p). La distribuzione binomiale è adatta per il campionamento su una popolazione di ampiezza infinita, dove p rappresenta la proporzione di non conformità o di elementi difettosi presenti nella popolazione e x solitamente rappresenta il numero di elementi non conformi osservati in un campione casuale di n elementi. Nel CSQ si trova spesso la variabile casuale p^ (frazione campionaria di elementi difettosi), data dal rapporto tra il numero osservato di elementi difettosi in un campione (x) e la numerosità (n) del campione stesso. La distribuzione di probabilità di p^ si ottiene proprio dalla binomiale. Quando la distribuzione binomiale tende verso la distribuzione normale? Quando n tende ad infinito (“n” grande) e p equivale a q , la distribuzione binomiale tende ad una distribuzione normale. Anche una distribuzione di Poisson tende ad una distribuzione normale se lambda (numero medio di eventi) è maggiore di 5. Come calcolo la media e la variabilità nella distribuzione binomiale? Nella distribuzione binomiale, media e varianza non coincidono. La media è uguale a n*p, dove n è il numero di prove e p è la probabilità di verificarsi di un evento, mentre la variabilità è data dalla radice (perché è variabilità e non varianza) di n*p*(1-p). Significato di 3,2,1 sigma nella carta di controllo x (spiegazione completa) Nell’ambito della struttura della formula della stima intervallare, lo stimatore intervallare generico delta è uno stimatore che varia all’interno di un intervallo, la cui probabilità del verificarsi degli eventi è associata o a una distribuzione normale standardizzata o a una t di Student. Quindi significa che in corrispondenza o della t di student o della distribuzione normale standardizzata, vado a calcolare dei valori critici sull’asse x tale che l’area sottesa all’interno corrisponde ad una specifica probabilità del verificarsi dell’evento. In corrispondenza dell’area sottesa alla curva del 5%, so che il valore critico è 1,96. Pertanto se io calcolassi dei limiti in corrispondenza di 1,96*sigma, avrei un’area sottesa alla curva tale che tutti i punti che stanno all’interno di quel range -1,96 sigma e +1,96 sigma, la probabilità che questo si verifica è pari al 95%. Passando da 1,96 a 2 sigma, l’area all’interno della curva si allarga, quindi a 3 sigma si allarga ancora di più. 3,2,1 o 1,96 rappresentano i valori critici di una distribuzione di probabilità continua tale che l’area sottesa all’interno di questo range è 1-alfa*sigma. I valori critici corrispondenti alla probabilità sottesi alla curva all’interno di questo range corrispondono a 3, a 2, a 1 sigma. Passo da 3, a 2, a 1 da una condizione di campionamento in accettazione ad una programmazione degli esperimenti (fatte prove ripetute a valori più ampi mi rendo conto se posso stringere e standardizzare). 3,2,1, vanno ricollegati al discorso su come cambia la distribuzione di probabilità all’interno delle 2 bande sul verificarsi degli eventi che stanno all’interno di quelle bande. 3,2,1 rappresentano i valori critici di una distribuzione di probabilità per valori di probabilità di successo o di errori differenti, calcolati, rispettivamente, a parità di sigma. In una carta di controllo per la media campionaria x, sostituendo 3,2,1 a Zalfa/2 si ottengono limiti di controllo a 3-sigma, 2-sigma, 1-sigma. Se una media campionaria cade al di fuori di tali limiti, la media del processo non è più pari a mu. Nella carta di controllo x, 3,2,1 sono i valori critici della distribuzione normale standardizzata. Se fossi a conoscenza che su una popolazione di 2000 fatture, 24 presentano degli errori materiali nella compilazione estraendo un campione di 200 fatture, con quale tecnica calcoleresti la probabilità di trovare fatture corrette? La probabilità di trovare fatture corrette si può calcolare mediante la tecnica del campionamento per attributi. Su 200 fatture, 176 (200-24) risultano corrette e la probabilità di trovare fatture corrette sarà pari a p=176/200=0,88. Nel controllo statistico della qualità, specificare la differenza e l’importanza che si attribuisce alla funzione di densità e alla funzione di ripartizione di una distribuzione normalizzata degli eventi posti a controllo, La funzione di densità sono tutti i punti che stanno sulla curva della distribuzione normale e nel CSQ rappresenta il numero di elementi che presentano uno specifico valore in corrispondenza di x. La funzione di ripartizione si riferisce alla probabilità del verificarsi degli eventi per x che varia all’interno di un range. Quindi con la funzione di densità si calcola il numero di elementi, mentre con quella di ripartizione si calcola la probabilità. Se la moda è maggiore della media, l’asimmetria è verso destra o verso sinistra? Verso destra. L’asimmetria è dove tende il punto di massimo della distribuzione.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved