Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

preguntas examen, Exámenes de Psicología

Asignatura: Analisis Multivariante, Profesor: , Carrera: Psicología, Universidad: USC

Tipo: Exámenes

2013/2014

Subido el 06/05/2014

esperequejo
esperequejo 🇪🇸

4.4

(22)

5 documentos

Vista previa parcial del texto

¡Descarga preguntas examen y más Exámenes en PDF de Psicología solo en Docsity! 1. ¿QUE SON LOS M-ESTIMADORES? Estimadores de tendencia central. Una especie de medias ponderadas en las que los pesos dependen de los datos. A los valores más extremos se les asignan pesos más pequeños. Se utilizan cuando no se pueden usar las medidas de tendencia central habituales. Son resistentes a los casos anómalos. 2. IMPUTACIÓN Y SUSTITUCIÓN DE LOS CASOS MISSING Sustitución: Media de la serie, media de los puntos adyacentes, mediana de los puntos adyacentes. Imputación: Interpolación lineal, Tendencia lineal en el punto, Media de subclases (Kalton), Esperanza de maximización (EM), Fichero Caliente (Hot Deck), Regresión lineal. 3. HOT DECK El fichero caliente o hot deck es una técnica de imputación de los casos missing que se utiliza cuando estos no se distribuyen al azar y se pierde mucha información. Se emplean variables cualitativas (Ej.: el voto). Se asigna al missing un valor ya existente en el fichero de datos (como el sujeto anterior o uno semejante en la matriz. 4. CUALES SON LOS SUPUESTOS PARAMETRICOS Y LAS PRUEBAS PARA COMPROBARLOS Normalidad -> Kolmogorov-Smirinov Homocedasticidad -> F de Leven Aleatoriedad -> Prueba de rachas Linealidad -> Gráfico de dispersión 5. ¿QUE ES UN MODELO MATEMATICO? 6. ¿QUE SON LOS DATOS DE PANEL? Son datos que combinan una dimensión temporal y otra transversal y que informan sobre distintos elementos en distintos momentos del tiempo (encuesta de población activa) 7. ERROR DE MUESTREO Aquel que se comete en la matriz de datos a la hora de codificarlos o grabarlos; o incoherencias entre los datos. 8. ERROR EN LA REGRESIÓN El error cometido al predecir la puntuación de un sujeto a partir de la ecuación de un modelo. El error típico de estimación es la desviación típica de los errores de estimación. 9. A QUE SE DEBE EL ERROR EN LA REGRESIÓN Se puede deber a mala elección del modelos, variables relevantes omitidas, error en la recogida de datos, comportamiento cambiante en sujetos o falta de recorrido en VD o VI´s 10. R^2 Y R^2 AJUSTADO R^2 es una medida de bondad del ajuste, se denomina coeficiente de determinación, es el cuadrado del coeficiente de correlación lineal multiple. Indica el %de variación de Y que explica X. R^2 ajustado es una corrección de R^2 dado que este ultimo aumenta con el aumento del numero de VIs. R^2 ajustado es comparable entre investigaciones. 11. PROCESO DE DATOS Forma general de abordar los problemas estadísticos. Es un continuo que comienza con el diseño de la investigación y termina con la interpretación de los resultados. 12. a EN y = a + bx a = intercepto o constante. Es el valor de Y’ (VD) si x (VI) = 0 13. DIFERENCIAS Y SEMEJANZAS ENTRE ANALISIS DE REGRESIÓN Y ANALISIS DISCRIMINANTE Semejanzas: ambas trabajan con grupos Diferencias: en la regresión la VD es de intervalo y en el análisis discriminante la VD es nominal 14. A, B1 Y B2 EN LA ECUACIÓN Y=A+B1X1+B2X2 a = intercepto o constante. Es el valor de Y’ (VD) si x (VI) = 0 b1,b2 = Coeficientes de regresión calculados a partir de los datos de la muestra estadística que estiman los parámetros de la regresión; es la variación que se produce en Y’ cuando la x correspondiente varía en una unidad 15. FORMULA DE LA VARIANZA TOTAL VT (VARIANZA TOTAL)= VR (VARIANZA EXPLICADA POR REGRESIÓN) + VE (VARIANZA NO EXPLICADA POR LA REGRESIÓN: DEBIDA AL ERRROR) 16. TRES CARACTERISTICAS DE LA REGRESION MULTIPLE 1. Una única VD cuantitativa 2. Varias VI´s cuantitativas 3. Relación lineal (y solo lineal) entre VD y VI 17. DIFERENCIAS ENTRE B Y BETA 34. Fases del proceso de datos Diseño de la investigación Recogida de los datos Codificación y grabación Análisis exploratorio Análisis estadístico Interpretación de resultados 35.¿Qué es un LOGIT? Ln de la ODD. El LOGIT es la VD en la regresión logística. El ODD es el cociente entre la probabilidad de que ocurra un evento entre la de que no ocurra. 36. ¿Qué es el Orthoplan? Un comando del SPSS que sirve para extraer un diseño ortogonal (submuestra de todas las combinaciones posibles para tener un menor número de estímulos finales de presentación al sujeto). 37. ¿Qué es el Partworth? Las utilidades parciales que nos informan del valor que aprota cada característica concreta o nivel del atributo a la presencia global, puede asumir valores positivos o negativos ya que aportan o quitan valor al atributo. La importancia de cada factor o atributo es la diferencia entre el nivel con mayor utilidad de ese atributo y el nivel con menor (Rangoi) partido por el sumatorio de rangos de todos los atributos y multiplicado por cien. IMP = [Rango/∑Ui]x100 38. ¿Qué es un boxplot y que información proporciona? Es un gráfico descriptivo que nos permite conocer la información de distribución de una variable. Proporciona información sobre extremos, outliers, percentiles 75 y 25, IQR, mediana, asimetría, curtosis, comparaciones de distribución entre 2 o más variables y comparaciones de distribución entre dos o más grupos en una misma variable. 39. ¿Cómo define Kendall el análisis multivariante?¿Cuál es la definición alternativa? Es una extensión del análisis univariante y bivariante al análisis simultáneo de dos o más variables en una muestra de observaciones. 40. Problemas y peligros del análisis multivariante Peligros: fácil estimación y difícil interpretación, incluye demasiadas variables –parsimonia- y olvido de la teoría. Problemas: supuestos, tamaño muestral, relevancia conceptual y significación estadística y casos anómalos. 41. ¿Cómo sabemos si es extremo u outlier? Sabemos que estamos ante un outlier cuando dista con respecto al cuerpo central de la distribución IQR entre 1,5 y 3 veces dicho IQR 42. ¿Cuál es el principal supuesto que se debe cumplir en las técnicas paramétricas? Normalidad 43. Si la F de Levene presenta una P=0,003 la variable no es homocedástica. Cómo la probabilidad es menor que 0,05 se puede afirmar que se cumple el supuesto de homocedástica 44. ¿Qué es un caso anómalo? Es un dato que dista del cuerpo central de una distribución 1,5 veces dicho IQR cómo mínimo. Pueden ser outliers (si dista entre 1,5 y 3 veces el IQR o extremo si dista más de 3 veces el IQR) 45. ¿Cómo estudiamos la asimetría en un boxplot? Miramos donde se encuentra la mediana, si está por debajo de la mitad de la caja hay asimetría positiva, y si está por encima de la mitad de la caja hay asimetría negativa. En caso de que la mediana se encuentre justo en la mitad de la caja la distribución es simétrica. 46. ¿Porqué es necesario corregir R2? Porque se ve afectado por el número de VI’s y por el tamaño de la muestra. Cuantas más VI’s y cuanto menor es la muestra mayor es el R2 , por lo tanto, no son comparables los R2 de dos modelos con distinto número de VI’s y tamaño de muestra. 47. ¿A qué se puede deber que un modelo falle mucho? Omisión de variables relevantes. Mala especificación del modelo Errores en la medición de los datos Comportamiento cambiante de lo sujetos Falta de recorrido en la VD o en las VI’s 48. Indica las diferencias y semejanzas entre correlación y covarianza, así como se puede pasar de una a otra Ambas medidas nos indican si hay relación entre dos variables y si dicha relación es directa o inversamente proporcional. La diferencia fundamental es que la correlación nos indica a mayores si dicha relación es significativa o no. Para pasar de la covarianza a la correlación hay que dividir la primera por el producto de las desviaciones típicas de ambas variables. 49. Diferencias y semejanzas entre regresión lineal y logística y tipos de variables que se utilizan en cada una. En ambas regresiones se trata de explicar una VD a partir de varias Vis. Las diferencias fundamentales son que la regresión lineal intenta explicar una VD a partir de una o varias VI’s siendo todas las variables cuantitativas. Sin embargo, en la regresión logísticas se trata de explicar la pertenencia a grupos definidos en una VD, estimar la probabilidad de un evento, en este caso se utiliza una VD cualitativa y una o varias Vis cualitativas o cuantitativas. 50. Riesgos de los missing Hacen que disminuya el tamaño de la muestra, por lo que los contrastes pierden potencia. Al ser la muestra menor que los resultados son menos generalizables. Que los missing sigan algún tipo de patrón, que los que no respondan tengan características similares 51. Dibuja un bloxplot e indica que información proporciona El boxplot informa de: Asimetría Mediana IQR Casos anómalos Máximos o mínimos sin ser anómalos Percentiles 25 y 75 Variabilidad (tamaño caja) 52. Formas de comprobar el supuesto de normalidad y ver en qué casos se cumple Prueba de K- S con corrección de Lilliefors Shapiro-Wilk para muestras pequeñas Graficaménte en el bloxplot si la distribución es simétrica (mediana en medio de la caja) 53. Sentido del análisis de varianza y t de student en la regresión lineal Sustitución: Mediana de la serie, mediana de los puntos adyacente y media de los puntos adyacentes (variables Cuantitativas) Imputación: Interpolación lineal, tendencia lineal en el punto, media de subclases (método Kalton). Esperanza maximización, regresión lineal (todas ellas usan variables cuantitativas y hot deck (usa variables cualitativas) 63. ¿Cuál es el principal supuesto que se debe cumplir en las técnicas paramétricas? Normalidad 64. ¿Qué es un caso anómalo? Un caso anómalo es aquel que dista del cuerpo central de la distribución (IQR) más de 1,5 veces dicho IQR. Puede ser: Un caso outlier es aquel que dista entre 1,5 y 3 veces el IQR del cuerpo central de la distribución. Un caso extremo es aquel que dista más de 3 veces el IQR de dicho cuerpo central de la distribución 65. ¿Qué pasa si no se cumplen los supuestos paramétricos? ¿Cuál de ellos conoces? No es posible utilizar pruebas paramétricas, salvo en el caso del supuesto de normalidad, en cuyo caso es posible transformar las variables para ver si entonces es normal. En caso contrario se ha de recurrir a técnicas no paramétricas. Los principales supuestos paramétricos son: normalidad de la VD, aleatoriedad, homocedasticidad, linealidad, ausencia de multicolinealidad. 66. ¿Qué son los mínimos cuadrados? Es una forma de estimar los parámetros de la ecuación de regresión de tal forma que la distancia de cada uno de los puntos de la nube de puntos a la recta sea la mínima posible. Dicho de otra forma, es la forma de obtener la recta de regresión que haga que los errores de estimación sean mínimos. Se utiliza en la regresión lineal y en el análisis conjunto 67. ¿En la fórmula Y = a+bX qué es lo que estimamos? Estimamos el valor de la VD o criterio 68. ¿Qué es el modelo inicial? Explícalo conceptualmente Es el modelo del que se parte a la hora de realizar un análisis. En el mismo han de figurar la VD, las distintas VI’s, los b o pesos de cada VI y la constante que indicaría el valor estimado de la VD en caso de que todas las X fueran nulas 69. Ventajas de utilizar el método STEPWISE El método stepwise tiene la ventaja frente al método enter que nos permite ser parsimoniosos ya que tan solo van a quedar en el modelo las variables más importantes para explicar la VD. Por tanto, este método nos permite maximizar el ajuste del modelo utilizando el menor número posible de predictores. 70. ¿Para qué necesito estandarizar un coeficiente de regresión? Como los predictores (X) fueron medidas en escalas diferentes los coeficientes b correspondientes no son comparables por lo que para saber que predictor es más importante hay que estandarizarlos. 71. ¿Cuáles son los contrastes en la regresión? Tanto en la regresión lineal como en la logística realizamos un contraste global para ver hasta que punto el modelo es estadísticamente significativo o dicho de otra forma si la varianza explicada es mayor que la de error. En la regresión lineal se utiliza la prueba F o ANOVA y en la logística la Chi cuadrado. También se realiza un contraste particular para ver si cada una de la VI es estadísticamente significativa. En la regresión lineal se utiliza la prueba t y en la logística Wald. 72. ¿Cuál es la fórmula para pasar de b a β? 73. ¿Qué significa multicolinealidad? Significa que la información de una variable esté incluida dentro de otra u otras. Es decir que existe algún tipo de relación significativa entre dichas variables. 74. ¿Cómo se interpreta b? B indica la variación que se estima en Y al aumentar en una unidad la X correpondiente. 75. ¿Cuál es la fórmula del coeficiente de correlación de Pearson? – – 76. ¿Qué es un diagrama de dispersión? Es una forma de examinar la relación entre dos variables de intervalo 77. ¿Cuáles son los indicadores de bondad del ajuste en el análisis conjunto? - R2 - Correlación de Kendall (entre rango real y rango predicho). El cuadrado de la correlación de Kendall es el porcentaje de varianza explicada por el modelo. - Tarjetos Holdout (Tarjetas de validación) Se fabrican tarjetas extra, a mayores, y se compara como las ordenó el sujeto con el pronóstico del modelo – que no las usó en las estimaciones) 78. ¿A qué hace referencia el método de máxima verosimilitud? La estimación pro máxima verosimilitud es un método habitual para ajustar un modelo y encontrar sus parámetros, utilizando por ejemplo en la regresión logística y en el análisis de supervivencia. 79. Define tablas de Kaplan – Meier Son unas tablas utilizadas en el análisis de supervivencia que calculan la probabilidad de supervivencia cada vez que el sujeto experimenta el evento, generando las probabilidades en cada momento. 80. Tipos de coeficientes de regresión y técnicas multivariantes. Señala los índices de bondad de ajuste de cada técnica Regresión lineal: R2 Regresión logística: -2LL, R2 Cox y Snell y R2 Nagelkerke Regresión de Cox: -2LL, chi cuadrado, R (correlación parcial) 81. Tipos de variables según Stevens. Ejemplos. Nominal Relación de iguales El sexo Ordinal Relación de mayor a menor La clase social Intervalo Determianción de la igualdad de la diferencia de intervalos El rendimiento académico medido de 0 a 10 Razón Existencia de cero real El tiempo de reacción 82. Define regresión de Cox Permite incorporar en la modelización variables cuantitativas y cualitativas. Intenta modelizar una tasa de Riesgo o Hazard (λt; tasa instantánea de fallecer en el momento t). Modelo: λt = e α+β1x1+ β2x2+…+ βnXn λt: Hazard o función de riesgo. α: constante (riesgo basal de ausencia de VI) βn: pesos o coeficientes de regresión para cada VI Xn: variables explicativas cuyo efecto se pretende probar La estimación de parámetros se hace mediante Máxima Verosimilitud con el Método Newton- Rahson (en cada iteración consigue descender el valor de -2LL: Método de pasos) 83. Supuestos del análisis de conjunto y del análisis de supervivencia. Los dos supuestos que subyacen en el Análisis Conjunto son: a) el comportamiento de elección del consumidor se rige por la maximización de preferencias; y b) un producto o servicio puede ser visto como un conjunto de atributos a partir de los cuales los consumidores obtienen su utilidad.
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved