Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

analisis quimico datos, Apuntes de Química Analítica

análisis de datos experimentales

Tipo: Apuntes

2018/2019
En oferta
30 Puntos
Discount

Oferta a tiempo limitado


Subido el 19/02/2019

comeme-5
comeme-5 🇪🇸

3.7

(2)

3 documentos

1 / 151

Toggle sidebar
Discount

En oferta

Documentos relacionados


Vista previa parcial del texto

¡Descarga analisis quimico datos y más Apuntes en PDF de Química Analítica solo en Docsity! Estadística y Programación aplicada a la Química Introducción al análisis de datos experimentales Dr. Pedro Alberto Enríquez Palma Área de Química Física Departamento de Química Licenciatura en Química, Universidad de La Rioja Índice general 1. Errores, incertidumbres, precision y exactidud. 5 1.1. Errores e incertidumbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2. Cifras o digitos significativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2. Teoría estadística de los errores(I). Probabilidad 15 2.1. Definición de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.1. El espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.2. Definición empírica de probabilidad . . . . . . . . . . . . . . . . . . . . . . 16 2.1.3. Definición aximática de probabilidad . . . . . . . . . . . . . . . . . . . . . 18 2.1.4. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2. Funciones de distribución de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . 20 2.2.1. Distribuciones de probabilidad de variables aleatorias discretas. . . . . . . . 21 2.2.2. Distribuciones de probabilidad de variables aleatorias continuas . . . . . . . 24 2.3. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.4. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3. Teoría estadística de los errores(II). Esperanza matemática 33 3.1. Esperanza matemática de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 34 3.1.1. Magnitudes aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.2. Magnitudes aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.3. Propiedades de la esperanza matemática . . . . . . . . . . . . . . . . . . . . 34 3.1.4. Momentos de una distribución. . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria . . . . . . 38 3.2.1. Media general de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 39 3.2.2. Media muestral de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 39 1 0.0 Índice general 4 1 Errores, incertidumbres, precision y exactidud. Contenidos ✍ Errores e incertidumbres. Concepto de error. Tipos de errores. Error de escala y resolución. Exactitud y precisión. ✍ Cifras y dígitos significativos. Normas de redondeo y truncamiento. Objetivos ✓ Errores e incertidumbre ☞ Comprender el concepto de error ☞ Distinguir entre los errores sistemáticos y aleatorios ☞ Reconocer el error de escala ☞ Comprender los conceptos de precisión, exactitud y sesgo ✓ Cifras significativas ☞ Determinar el número de cifras significativas de un número ☞ Escribir correctamente un número en notación científica ☞ Redondear correctamente un resultado 5 1.1 1.1. Errores e incertidumbres 1.1. Errores e incertidumbres En la determinación experimental de una magnitud no podemos definir error como la diferencia entre el valor observado de la magnitud y su valor real: no conocemos este supuesto valor real sólo disponemos de aproximaciones a ese valor obtenidas en otros experimentos o a partir de predicciones teóricas. Sin embargo, podemos acotar el intervalo de valores que puede asumir esa magnitud al realizar la medida. Suponga que conocemos el valor real del observable1, A. A la diferencia entre el valor del obser- vable A y el valor obtenido en la medida, ai, la denominaremos error absoluto, ei: ei = |A − ai| (1.1) Como es imposible determinar A, no podemos determinar ei. Lo que si podemos hacer es estimar el intervalo de valores en que esperamos encontrar A de modo que la diferencia entre la medida, ai, y A sea menor o igual que un cierto error, εi: εi = |A − ai| (1.2) A − ai ≤ εi ≥ A + ai (1.3) Así, es conveniente representar el valor real que intentamos aproximar (y no conocemos) con un intervalo centrado en la medida ai: A = ai ± εi (1.4) εi es el error absoluto o incertidumbre de la medida. Podemos distinguir tres tipos de contribuciones a la disparidad entre las observaciones experimen- tales y el valor real: errores ilegítimos errores sistemáticos errores aleatorios Los errores ilegítimos2 son aquellos causados por errores de cálculo o en la realización del expe- rimento. Afortunadamente estos son fácilmente detectables, ya sea porque el resultado de la medida es un valor físicamente improbable o porque los resultados difieren considerablemente de otras deter- minaciones. Estos errores se corrigen repitiendo las operaciones erroneas o el experimento. Los errores sistemáticos (o determinados) son aquellos que afectan a las distintas medidas de un modo previsible. Su determinación no es siempre fácil, puesto que no siempre es posible estimar su efecto y sólo pueden detectarse mediante un análisis detallado del procedimiento experimental. Si el tipo y magnitud de este error es conocido, la medida puede ser corregida para compensar por este 1observable: propiedad que puede medirse experimentalmente 2También llamados errores groseros o accidentales 6 1 1.Errores, incertidumbres, precision y exactidud. Figura 1.1: Comparación de errores sistemáticos y accidentales. Los errores sistemáticos están asocia- dos con la exactitud de la medida mientras que los errores accidentales o aleatorios con su precisión. Figura 1.2: Distribución de las medidas de la tabla del ejemplo 3 [3, figura1] 9 1.2 1.2. Cifras o digitos significativos 1.2. Cifras o digitos significativos Para indicar el valor de una magnitud experimental se han de proporcionar el máximo número de cifras significativas que permita la precisión del experimento. Cualquier número en valor absoluto puede expresarse como una serie de potencias |x| = ∞∑ m=i αi 10 m (1.6) donde αm es un dígito del 0 al 9, e i es un entero tal que 1 ≤ |x| 10i ≤ 10 (1.7) Las cifras significativas se definen como: 1. el dígito menos significativo es aquel no nulo más a la izquierda 2. el dígito más significativo es aquel más a la derecha que tenga el mismo orden de magnitud que la incertidumbre del experimento 3. el número total de dígitos significativas comprende todos aquellos que van del dígito más al menos significativo Ejemplo 4. Número de cifras significativas ¿Cuantas cifras significativas tiene el número 0, 00370?. En el número 0, 00370 los tres primeros dígitos no son significativos puesto que sólo sirven para indicar el orden de magnitud de la medida. El último cero si es significativo puesto que el número 0,00370 es diferente a 0, 00369, 0, 00371, 0, 00372, . . . . El número tiene 3 cifras significativas. Note que 0,00370 es diferente a 0,0037 porque este número sólo tiene dos cifras significativas. Una consecuencia del resultado del ejemplo anterior es que hay que tener cuidado cuando escribi- mos el resultado de una medida en distintas unidades. Hay que tener cuidado con el número de cifras significativas. Por ejemplo, el equivalente en gramos de 3,2 Kg es 3,2 103g no 3200 g. Esta número no es correcto puesto que supondría que el resultado del peso en Kg lo conocemos con cuatro cifras significativas. Un método que evita ambigüedades a la hora de determinar que cifras son significativas es expre- sar los números en notación científica. En esta notación el número se expresa como el producto de otro número (mantisa) que contiene las cifras significativas, la primera de las cuales ocupa la columna de las unidades, por una potencia de diez. 10 1 1.Errores, incertidumbres, precision y exactidud. Ejemplo 5. Notación científica El número 150000 puede expresarse en notación científica como 1.5 105→ si tiene dos cifras significativas. 1.50 105→ si tiene tres cifras significativas. 1.500 105→ si tiene cuatro cifras significativas. Cuando una magnitud se calcula con un número de cifras superior al de cifras significativas con- viene suprimir las no significativas. A este procedimiento se le denomina redondeo. Al suprimir estas se introduce un error (error de truncamiento) que afectará a las operaciones en las que se incluya esta magnitud. Este error ha de minimizarse, e intentar mantenerlo por debajo de la incertidumbre de la medida. Para ello seguiremos las reglas siguientes: 1. Si el primer dígito despreciado es menor que 5 no se modifica el dígito más significativo. 2. Si el primer dígito despreciado es mayor que 5 se suma uno al dígito más significativo. 3. Si el primer dígito despreciado es 5, suma uno al dígito más significativo si éste es impar; no se modifica en caso contrario. Aunque esta regla parezca arbitraria, se puede demostrar que de no usarse esta u otra similar, induciríamos un error sistemático. Otra regla a tener en cuenta al determinar las cifras significativas supone que si no se proporciona ningún dato relativo a la incertidumbre de la medida consideramos que todas sus cifras son signi- ficativas y que estas son el mayor número que se puede leer con la escala del aparato usado en la medida. Ejemplo 6. Redondeo y truncamiento Redondee los siguientes número al número de cifras significativas adecuado: 7,56128± 0,02 →7,56± 0,02 7,56128± 0,1 →7,6± 0,1 1,2451± 0,01 →1,24± 0,01 1,245± 0,01 →1,24± 0,01 1,235± 0,01 →1,24± 0,01 413,73500± 0,05 →(4,1374± 0,0005)102 11 1.4 1.4. Lecturas recomendadas 1.4. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de: ☞ Capítulo 1. Introducción del libro de Miller y Miller[3]. X El texto es claro y del mismo nivel que el del curso. Aunque el libro está orientado hacia las aplicaciones de la Quimiometría en Química Analítica, los contenidos son de carácter general. ☞ Introducción del texto de Spiridonov y Lopatkin[7]. ☞ Chapter 1. Uncertainties in measurements del libro de Bevington y Robinson[1] 14 2 Teoría estadística de los errores(I). Probabilidad Contenidos ✍ Introducción. Error aleatorio y probabilidad. ✍ Definición de probabilidad. Espacio muestral y sucesos. Magnitud aleatoria discreta y continua. Definición empírica de probabilidad. Defini- ción axiomática de probabilidad. ✍ Funciones de distribución de probabilidad: variables aleatorias dis- cretas. Función de probabilidad o función de frecuencia. Función de dis- tribución de probabilidad acumulada. ✍ Funciones de distribución de probabilidad: variables aleatorias continuas. Función de distribución de probabilidad o de densidad de pro- babilidad. Función de distribución de probabilidad integrada. Objetivos ✓ Definición de probabilidadErrores e incertidumbre ☞ Comprender la relación entre el error aleatorio y la probabilidad ☞ Conocer la definición axiomática de probabilidad y las consecuencias que se derivan de ésta ☞ Comprender la relación entre frecuencia de un suceso y probabilidad de que este se produzca ✓ Funciones de distribución de probabilidad ☞ Realizar cálculos básicos de probabilidad para variables aleatorias dis- cretas ☞ Realizar cálculos básicos de probabilidad para variables aleatorias con- tinuas 15 2.1 2.1. Definición de probabilidad Como vimos en el tema 1, los errores accidentales son debidos a las fluctuaciones de las distintas variables que influyen sobre el experimento. Esto se manifiesta en que medidas repetidas en condi- ciones aparentemente idénticas difieren. Por este carácter aleatorio, los errores accidentales pueden tratarse estadísticamente. El objetivo de la teoría estadística de los errores es múltiple: obtener una apreciación óptima del valor de la magnitud medida, estimar el error accidental en su determinación, verificar si el resultado es compatible con determinadas hipótesis que puedan establecerse sobre la magnitud que se mide, etc. Toda teoría estadística de los errores se basa en dos postulados generales: (a) la medida experimental de una magnitud es una variable aleatoria que cumple la ley de estabi- lidad estadística o de los grandes números según la cual las medidas se concentran en torno a un valor medio, que cuando el número de observaciones es grande (en el límite de infinito) se convierte en un valor constante, independiente del número de observaciones. (b) la probabilidad de que observemos un valor distinto del valor medio puede caracterizarse mediante una función (función de distribución de probabilidad). La forma concreta de la función de distribución de probabilidad puede ser establecida a partir de medidas experimentales o, postulada y posteriormente contrastada con los experimentos. Al postular distintas distribuciones de probabilidad se tendrá una determinada teoría estadística y la interpola- ción de los resultados experimentales será diferente. Generalmente consideraremos que la función de distribución que caracteriza nuestras medidas es una función de distribución normal o Gaussiana1. 2.1. Definición de probabilidad 2.1.1. El espacio muestral En teoría estadística al conjunto de todos los posibles resultados de una medida se le denomina espacio muestral, S. Por ejemplo, (i) En un experimento se miden el número de partículas emitidas por una fuente radiactiva. El espacio muestral está formado por los números 0, 1, 2, ... Puesto que la magnitud determinada en el experimento es una magnitud aleatoria discreta, el espacio muestral es un conjunto contable. (ii) En un experimento se determina el volumen necesario de ácido que hay que utilizar para alcanzar el punto de equivalencia en una valoración ácido-base. El volumen puede tomar cualquier valor, tal que V > 0. La magnitud estudiada es una magnitud aleatoria continua y el espacio muestral puede ser cualquier número real positivo (V > 0) y el espacio muestral es un conjunto no contable. Cada posible subconjunto del espacio muestral se le denomina suceso, A. Un suceso que corres- ponde al resultado de una medida constituye un suceso elemental o simple. 2.1.2. Definición empírica de probabilidad Intuitivamente identificamos la probabilidad de un suceso con la frecuencia con la que esperamos que este ocurra. Podeamos definir la probabilidad de suceso A, P(A), como la frecuencia con que este 1Estudiaremos esta función de distribución de probabilidad en el tema 5 Distribuciones de probabilidad de variables aleatorias continuas 16 2 2.Teoría estadística de los errores(I). Probabilidad Figura 2.1: Diagrama de Venn que ilustra el significado de P (A ∩ B). Algunas consecuencias de estos axiomas son: ☞Para cada suceso P(A): 0 ≤ P (A) ≤ 1 (2.4) es decir la probabilidad de un suceso está entre cero y uno. ☞El suceso imposible tiene probabilidad nula, P (∅) = 0. ☞Si A’ es el suceso complemento de A entonces: P (A′) = 1− P (A) (2.5) 2.1.4. Probabilidad condicional La probabilidad de que dos sucesos A y B ocurran simultáneamente, P (A ∩B), viene dada por P (A ∩B) = P (A)P (B|A) = P (B)P (A|B) (2.6) donde P (B|A) es la probabilidad condicional de que suceda B si ha ocurrido A. Si A y B son sucesos independientes, P (B|A) = P (B), P (A ∩B) = P (A)× P (B) (2.7) 19 2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 2. Calculos con probabilidades condicionales Suponga que dispone de una bolsa con tres bolas rojas y cuatro bolas azules. Calcule la proba- bilidad de extraer una bola roja y después una azul, si (a) no reemplaza la bola extraída, y (b) se reemplaza la bola extraída. (a) P (R1 ∩ A2) = P (R) P (A|R) = 3 7 × 4 6 = 0,29 P (R) = bolas rojas bolas = 3 7 P (A|R) = bolas azules bolas = 4 6 (b) P (R1 ∩ A2) = P (R) P (A|R) = = P (R) P (A) = 3 7 × 4 7 = 0,24 P (R) = bolas rojas bolas = 3 7 P (A|R) = bolas azules bolas = 4 7 2.2. Funciones de distribución de probabilidad. Debido a los errores aleatorios los resultados de medidas realizadas en idénticas condiciones pro- ducen valores distintos. Esto supone que las medidas experimentales son magnitudes aleatorias. De acuerdo con los posibles resultados de la medida podemos tener: Magnitudes discretas: pueden tomar valores discretos y corresponden a variables aleatorias discretas. Magnitudes continuas pueden tomar cualquiera de los valores de un intervalo finito o infinito y corresponden a variables aleatorias continuas.. En la primera categoría entra un experimento de conteo de fotones. En este se mide el número de fotones que cuenta un fotomultiplicador en la unidad de tiempo. Este sólo puede ser un número natural: 0,1,2,..., 200, . . . , puesto que no podemos contar fracciones de fotón. A la segunda categoría pertenecen las medidas de conductividad de una disolución de electrolitos que pueden tomar cualquier valor dentro de un intervalo: el resultado de la medida es un número real. En adelante para hacer referencia a la magnitud aleatoria utilizaremos letras mayúsculas, mientras que para los resultados de un experimento utilizaremos letras minúsculas. 20 2 2.Teoría estadística de los errores(I). Probabilidad 2.2.1. Distribuciones de probabilidad de variables aleatorias discretas. Sea X una variable aleatoria discreta. Supongamos que los valores que puede tomar estan dados por x1, x2, x3, . . . ordenados en orden creciente de valor. La probabilidad de obtener el valor xi, P (xi), viene dada por P (xi) = f(xi) (2.8) donde f(xi) es la función de probabilidad o función de frecuencia de X. De acuerdo con la definición axiomática de probabilidad, f(xi) cumple: f(xi) ≥ 0 (2.9) N∑ i=1 f(xi) = 1 (2.10) donde N es el número total de posibles valores que puede tomar xi. Se define como función de distribución probabilidad acumulada o función de distribución de X, F (xk) a la probabilidad de que la variable aleatoria tome un valor x tal que x ≤ xk, F (xk) = P (X ≤ xk) (2.11) donde xk es cualquier número real en el intervalo - ∞ < x < +∞. Es importante que tenga en cuenta que cuando trabajamos con magnitudes aleatorias discretas: f(xi), función de probabilidad o función de frecuencia de X. Probabilidad de que la variable aleatoria X tome el valor xi F (xi): función de distribución probabilidad acumulada. Probabilidad de que la variable alea- toria X tome cualquier valor, xj que cumpla xj ≤ xi ¿Cómo se calcula F (xk)? F(xk) se puede calcular a partir de f(x) como F (xk) = ∑ xi≤xk f(xi) (2.12) F (xk) es una función monótona creciente. 21 2.2 2.2. Funciones de distribución de probabilidad. 2.2.2. Distribuciones de probabilidad de variables aleatorias continuas Sea una variable continua X. La función de distribución de probabilidad o función de densidad de probabilidad , f(x), proporciona la probabilidad de que la magnitud aleatoria se encuente en el intervalo [x, x + dx] P (x ≤ X ≤ x + dx) = f(x) (2.14) De acuerdo con la definición axiomática de probabilidad, f(x) cumple: f(x) ≥ 0 (2.15) ∫ +∞ −∞ f(x)dx = 1 (2.16) La probabilidad de que X se encuentre en el intervalor [a, b] viene dada por P (a ≤ X ≤ b) = ∫ b a f(x)dx (2.17) Es importante tener en cuenta que para una variable aleatoria continua, P (X = xi) = 0, P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b) (2.18) Figura 2.3: Funciones de densidad de probabilidad, f(x) de una variable aleatoria continua. Signifi- cado de P (a ≤ x ≤ b) = ∫ b a f(x)dx. 24 2 2.Teoría estadística de los errores(I). Probabilidad Por analogía con las funciones de distribución de probabilidad discretas se puede definir la función de distribución de probabilidad integrada de una variable aleatoria continua, F (xi), continua como: F (xi) = P (X ≤ xi) = P (−∞ ≤ X ≤ xi) = ∫ xi −∞ f(u)du (2.19) A partir de esta definición se pueden obtener las siguientes relaciones: P (a ≤ X ≤ b) = ∫ b a f(x)dx = ∫ b −∞ f(x)dx − ∫ a −∞ f(x)dx = F (b)− F (a) (2.20) P (X > a) = 1− P (X ≤ a) = 1− F (a) (2.21) ya que x>a es el suceso complementario a x ≤ a. Algunas propiedades de F(x) son: En todo el intervalo en que f(x) es continua, f(x) = dF (x) dx Si x2 >x1 tendremos que F(x2) >F(x1). Es decir F(x) es monótona creciente. F (−∞) = 0 y F (+∞) = 1 Figura 2.4: Funciones de distibución de probabilidad, F (x). Significado de P (a ≤ x ≤ b) = F (b)− F (a) 25 2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 4. Cálculo de la constante de normalización de una función de distribución de probabilidad, f(x), de una variable aleatoria continua Hallar la constante c para que la función de densidad de probabilidad f(x) =  0 x < 0 cx2 0 ≤ x ≤ 3 0 x > 3 sea una función de distribución de probabilidad y calcular P(1<x<2). Para que f(x) sea una función de distribución de probabilidad debe cumplir la condición (ver ecuación 2.16) ∫ +∞ −∞ f(x)dx = 1 Sustituyendo en la ecuación 2.16∫ +∞ −∞ f(x)dx = ∫ 3 0 c x2dx = 1 3 cx3 ∣∣∣∣3 0 = 9 c = 1 se obtiene que c = 1/9. Utilizando la ecuación 2.17 P (a ≤ X ≤ b) = ∫ b a f(x)dx se obtiene P (1 ≤ X ≤ 2) = ∫ 2 1 1 9 x2dx = 1 27 x3 ∣∣∣∣2 1 = 7 27 Ejemplo 5. Cálculo de la función de distribución de probabilidad integrada, F (x), de una variable aleatoria continua Sea x una variable aleatoria con función de densidad de probabilidad normalizada f(x) =  0 x < 0 1− x 0 ≤ x ≤ 1 x− 1 1 ≤ x ≤ 2 0 x > 2 (a) Determine F(x), (b) calcule P (0 ≤ X ≤ 1) y (c) P (x = 0, 1/2, 1, 3/2, 2). 26 2 2.Teoría estadística de los errores(I). Probabilidad 2.3. Ejercicios y problemas Funciones de distribución de probabilidad Cuestión 2.1 Elija la mejor respuesta. Considere una variable alatoria continua X. La función de distribución o densidad de probabilidad,f(x), proporciona: (a) f(x) = P (X = x) (b) f(x) = P (x < X < x + dx) (c) f(x) = P (x ≤ X < x + dx) (d) f(x) = P (x < X ≤ x + dx) (e) f(x) = P (x ≤ X ≤ x + dx) (e) f(x) = P (x ≤ X) (f) Las respuestas b,c,d,e son correctas, ya que son equivalentes (g) Ninguna de las anteriores. La respuesta correcta es ......... Cuestión 2.2 Verdadero o falso. Jusitfique la respuesta. Para una variable alatoria continua X, P (X = xi) = 0 Cuestión 2.3 Indique las respuesta o respuestas correctas. Considere una variable alatoria continua X con función de densidad de probabilidad f(x), P(X<a) viene dado por (a) ∫ a −∞ f(x)dx (b) 1− ∫ a −∞ f(x)dx (c) ∫∞ a f(x)dx (d) 1− ∫∞ a f(x)dx (e) F (a) (e) 1− F (a) (f) Ninguna de las anteriores. Ejercicio 2.1 Dada la función de densidad de probabilidad f(x) =  0 x < 0 1 9 x2 0 ≤ x ≤ 3 0 x > 3 (a) Encuentre la función de distribución, F(x), correspondiente. (b) Utilice este resultatado para calcular P (1 ≤ x ≤ 2). Ejercicio 2.2 La función de distribución de la variable aleatoria X es F (x) = { 0 x < 0 1− e−2x x ≥ 0 (a) Encuentre la función de densidad, f(x), correspondiente. (b) Utilice las funciones de distribución y densidad para calcular la probabilidad de que X>2. (c) Utilice las funciones de distribución y densidad para calcular la probabilidad de que −3 ≤ X ≤ 4. 29 2.3 2.3. Ejercicios y problemas Ejercicio 2.3 Una variable aleatoria X tiene una función de densidad f(x) = c x2 + 1 donde −∞ < x < ∞ (a) Encuentre el valor de la constante c. (b) Encuentre la probabilidad de que X2 se encuentre entre 1/3 y 1. Ejercicio 2.4 Dada la función de distribución de probabilidad f(x) =  0 x < a k a ≤ x ≤ b 0 x > b Determine el valor de k. ¿Qué valor tendrán esta magnitud si a = -e y b = e?. 2.3.1. Soluciones a los ejercicios Funciones de distribución de probabilidad Ejercicio 2.1 (a) F (x) =  0 x < 0 x3 27 0 ≤ x ≤ 3 1 x > 3 (b) 7 27 Ejercicio 2.2 (a) f(x) = { 0 x < 0 2e−2x x ≥ 0 (b) e−4. (c) 1 − e−8 Ejercicio 2.3 (a) De acuerdo con la ecuación 2.16∫ +∞ −∞ f(x)dx = 1 ∫ +∞ −∞ c x2 + 1 dx = c tan−1 x ∣∣∞ −∞ = c [π 2 − ( −π 2 )] = 1 c = 1/π (b) Si 1 3 ≤ X2 ≤ 1, los valores de X pueden estar en los intervalos − √ 3 3 ≤ X ≤ −1 y √ 3 3 ≤ X ≤ 1. Por lo tanto la probabilidad requerida es 30 2 2.Teoría estadística de los errores(I). Probabilidad 1 π ∫ −√3 3 −1 dx x2 + 1 1 π ∫ √3 3 1 dx x2 + 1 = 2 π ∫ √3 3 1 dx x2 + 1 = 2 π [ tan−1(1)− tan−1( √ 3 3 ) ] = 2 π [π 4 − π 6 ] = 1 6 2.4. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de: ☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7]. X Repasa los conceptos básicos de probabilidad y función de distribución de propabilidad. Ade- cuado para revisar la teoría del tema. ☞ Capítulo 2. Variables aleatorias y distribución de probabilidad del libro de Spiegel y cols.[5]. En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las distribuciones de probabilidad conjunta, ... Se recomienda revisar las secciones cuyos conteni- dos coinciden con los del curso: Variables aleatorias. Distribuciones de probabilidad discreta. Funciones de distribución para variables aleatorias. Funciones de distribución para variables aleatorias discretas. Funciones de distribución para variables aleatorias continuas. Interpreta- ciones gráficas. También se recomienda la realización de los ejercicios suplementarios 2.47 a 2.53.X ☞ Tema 2. Variables aleatorias y distribuciones de probabilidad. del texto de Walpole y Myers[6]. Se recomienda la consulta de las secciones: 1.Concepto de variable aleatoria; 2. Distribución discreta de probabilidad; 3. Distribución continua de probabilidad; y 4. Distribuciones empíri- cas. 31 3.1 3.1. Esperanza matemática de una magnitud aleatoria 3.1. Esperanza matemática de una magnitud aleatoria 3.1.1. Magnitudes aleatorias discretas Sea una magnitud aleatoria discreta, x, y una función y(x). Si f(x) es la función de distribución de probabilidad de la variable x, se define como esperanza matemática de la función y(x), E {y(x)} = k∑ i=1 y(xi) · f(xi) (3.1) donde la suma se extiende a todos los posibles valores de x. 3.1.2. Magnitudes aleatorias continuas Sea una magnitud aleatoria continua, x, y una función y(x). Si f(x) es la función de densidad de probabilidad de la variable x, se define como esperanza matemática de la función y(x), E {y(x)} = ∫ ∞ −∞ y(x) · f(x) dx (3.2) donde la suma se extiende a todos los posibles valores de x. 3.1.3. Propiedades de la esperanza matemática Algunas propiedades de la esperanza matemática son: Si c es una constante (magnitud no aleatoria) tendremos que E {c} = c (3.3) E {c y(x)} = c · E {y(x)} (3.4) Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes x = x1 + x2 + . . . + xn (3.5) su esperanza matemática es la suma de la esperanza matemática las n magnitudes sumadas E {x} = E {x1} + E {x2} + . . . + E {xn} (3.6) 34 3 3.Teoría estadística de los errores(II). Esperanza matemática Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes y = f(x1, x2, . . . , xn) (3.7) que varia poco en intervalos pequeños de variación de los argumentos, el valor de E {y} es aproximadamente E {y} = f (E {x1} , E {x2} , . . . E {xn}) (3.8) 3.1.4. Momentos de una distribución. Dada una variable aleatoria, x, discreta o continua, se llama momento de orden k respecto del parámetro c, Mk a las esperanza matemática de la variable (x− c)k Mk = E { (x− c)k } (3.9) Si c = 0 tenemos los momentos respecto del origen a los que suele representarse por αk αk = E { (x)k } (3.10) Dos momentos de importantes son α0 = 1 y α1 = µX (valor medio de x o media de x). α0 = E { (x)0 } = E {1} = 1 (3.11) α1 = E { (x)1 } = E {x} = µx (3.12) Si c = µX hablamos de momentos centrales o momentos respecto de la media. Suele represetarse por µk y vienen dados por µk = E { (x− µx)k } (3.13) Momentos de importantes son µ0 = 1, µ1 = 0 y µ2 = σ2x (varianza de x). µ2 = E { (x− µx)2 } = σ2x (3.14) 35 3.1 3.1. Esperanza matemática de una magnitud aleatoria Ejemplo 1. Cálculo de la media y la varianza de una variable aleatoria discreta Considere la variable aleatoria X que tiene la siguiente función de distribución de probabilidad x 8 12 16 20 24 f(x) 1 8 1 6 3 8 1 4 1 12 Cálcule la media y la varianza de X. La media viene dada por la ecuación 3.12 µx = E {x} Sustituyendo µx = ∑ x · f(x) = 8 · 1 8 + 12 · 1 6 + 16 · 3 8 + 20 · 1 4 + 24 · 1 12 = 16 La varianza viene dada por la ecuación 3.14 σ2x = E { (x− µx)2 } σ2x = E { (x− µx)2 } = ∑ (x− 16)2 · f(x) = (8− 16)2 · 1 8 + (16− 12)2 · 1 6 + (16− 16)2 · 3 8 + (20− 16)2 · 1 4 + (24− 16)2 · 1 12 = 64 · 1 8 + 16 · 1 6 + 0 · 3 8 + 16 · 1 4 + 64 · 1 12 = 20 La varianza también viene dada por σ2x = E { (x2) } − µ2x E { x2 } = ∑ x2 · f(x) = 64 · 1 8 + 144 · 1 6 + 256 · 3 8 + 400 · 1 4 + 24 · 1 12 = 276 σ2x = E { (x− µx)2 } = 276− (16)2 = 276− 256 = 20 Como muestran los resultados los dos métodos utilizados para calcular la varianza son equiva- lentes. 36 3 3.Teoría estadística de los errores(II). Esperanza matemática 3.2.1. Media general de una magnitud aleatoria El valor medio de la magnitud aleatoria x para el conjunto general es la esperanza matemática de la magnitud aleatoria µx = E {x} (3.15) 3.2.2. Media muestral de una magnitud aleatoria La media muestral de la magnitud aleatoria x se define como el valor medio de los valores obser- vados x1,x2, . . . ,xn, x̄ = x1 + x2 + . . . + xn n = 1 n · n∑ j=1 xj (3.16) 3.2.3. Varianza de una magnitud aleatoria. La varianza o dispersión de una magnitud aleatoria x se define como la esperanza matemática de las desviaciones respecto a la media general: σ2x = E { (x− µx)2 } (3.17) Al valor positivo de la raíz cuadrada de la varianza, σ(x), se le llama desviación cuadrática media, desviación típica o desviación normal. Algunas propiedades de la varianza son: Si c es una constante (magnitud no aleatoria) tendremos que: σ2(c) = 0 (3.18) σ2(c x) = c2 σ2(x) (3.19) Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes x = x1 + x2 + . . . + xn (3.20) la varianza de x es la suma de las varianzas de las n magnitudes sumadas σ2(x) = σ2(x1) + σ 2(x2) + . . . + σ 2(xn) (3.21) 39 3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria Sin embargo,σ(x) viene dado por σ(x) = √ σ2(x1) + σ2(x2) + . . . + σ2(xn) (3.22) La varianza se puede calcular a partir de los momentos respecto del origen α1 y α2: σ2(x) = E { x2 } − µ2x (3.23) Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes y = f(x1, x2, . . . , xn) (3.24) que varia poco en intervalos pequeños de variación de los argumentos, el valor de σ2(y) es aproximadamente σ2(y) = ( ∂f ∂x1 )2 σ2(x1) + ( ∂f ∂x2 )2 σ2(x2) + . . . ( ∂f ∂xn )2 σ2(xn) (3.25) Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas. Ejemplo 3. Varianza de una magnitud indirecta Utilizando un puente de Wheatstone, la resistencia de una disolución de electrolitos, W , puede calcularse mediante la ecuación W = R · 1000− a a = R · ( 1000 a − 1 ) donde R es el valor de una resistencia patrón conocida y a es la lectura de la resistencia que se obtiene experimentalmente cuando se equilibra el puente de Wheatstone. Calcule la incertidumbre de W . Considere que la incertidumbre de R es despreciable. De acuerdo con la ecuación 3.30 σ2(y) = ( ∂f ∂x1 )2 σ2(x1) + ( ∂f ∂x2 )2 σ2(x2) + . . . ( ∂f ∂xn )2 σ2(xn) que en nuestro caso se reduce a σ2(W ) = ( ∂W ∂a )2 σ2(a) 40 3 3.Teoría estadística de los errores(II). Esperanza matemática ( ∂W ∂a ) = −R · 1000 a2 σ2(W ) = R2 · 10 6 a4 σ2(a) Ejemplo 4. Varianza de una magnitud indirecta (II) Determine la incertidumbre en la medida de la entalpia para la reacción NH3(g) + 5 4 O2(g)  O(g) + 32H2O(g) ∆Hr R.1 Considere las reacciones: H2O(g)  H2O(l) ∆H2 R.2 1 2 N2(g) + 3 2 H2(g)  NH3(g) ∆H3 R.3 1 2 H2(g) + 1 2 O2(g)  H2O(g) ∆H4 R.4 1 2 NO(g)  1 2 N2(g) + 1 2 O2(g) ∆H5 R.5 Utilizando la ley de Hess podemos expresar ∆Hr en función de las entalpias de las reacciones R.2 a R.5 ∆Hr = − 3 2 ∆H2 − ∆H3 + 3 2 ∆H4 − ∆H5 y de acuerdo con las propiedades de la dispersión muestral, ecuación 3.30, la incertidumbre en ∆Hr es σ2(∆Hr) = ( 3 2 )2σ2(∆H2) + σ 2(∆H3) + ( 3 2 )2σ2(∆H4) + σ 2(∆H5) 41 3.3 3.3. Mediana y moda 3.3. Mediana y moda La media, o esperanza, de una variable aleatoria X proporcion una medida de la tendencia central para los valores de una distribución. Otras medidas de la tendencia central frecuentemente usadas son: Moda Para una variable aleatoria discreta es el valor que ocurre con más frecuencia o, en el que tiene la mayor probabilidad de ocurrencia. Algunas veces tenemos dos, tres o más len probabilidades relativamente grandes de ocurrencia. En tales casos, decimos que la bimodal, trimodal o multi- modal, respectivamente. En el caso de una variable aleatoria continua X es el valor o valores de X donde la función de densidad de probabilidad tiene un máximo relativo. Mediana Valor de x para el cual P (X < x) = 1 2 y P (X > x) ≤ 1 2 . En el caso de una variable continua tenemos P (X < x) = 1 2 = P (X > x), y la mediana separa la curva de densidad en dospartes con áreas iguales de 1/2 cada una. En el caso de una distribución discreta, no existe una mediana única 44 3 3.Teoría estadística de los errores(II). Esperanza matemática 3.4. Ejercicios y problemas Cuestión 3.1 Demuestre µ0 = 1 Cuestión 3.2 Demuestre µ1 = 0 Cuestión 3.3 Demuestre σ2x = E { x2 } − µ2x Cuestión 3.4 Verdadero o falso. Jusitfique la respuesta. La media muestral, x̄ es una variable aleatoría Cuestión 3.5 Verdadero o falso. Jusitfique la respuesta. La varianza, σ2(x) es una variable aleatoría Cuestión 3.6 Verdadero o falso. Jusitfique la respuesta. La media µx y la varianza σ2(x) son dos propiedas características de una variable aleatoria Esperanza matemática de una magnitud aleatoria Ejercicio 3.1 Dada la función de densidad de probabilidad Sea la variable aleatoria X que tiene por función de densidad f(x) = dF (x) dx  0 −∞ < x < 0 x 0 ≤ x < 1 2− x 1 ≤ x ≤ 2 0 x > 2 Calcular la media y la varianza de X. Calculo de magnitudes muestrales Ejercicio 3.2 Al realizar cinco medidas del indice de refracción de una mecla se obtuvieron los siguientes valores: 1.591, 1.521,1.528,1.570,1.587 45 3.4 3.4. Ejercicios y problemas Ejercicio 3.3 Los resultados de una serie de medidas de la temperatura con un termometro agrupa- dos en clases de anchura 0.1 K son T / K 298 298.1 298.2 298.3 298.4 298.5 Fi 0.2 0.2 0.3 0.1 0.1 0.1 Dibuje el histograma asociado a estos datos. Ejercicio 3.4 En una serie de experimentos se determino la capacidad de absorber metales pesados presentes en el medio natural de ciertas especies de pescado. Los siguientes datos corresponden a medidas de la concentración promedio de cadmio (mg Cd por Kg de pez) para una especie en distintos bancos del Atlántico. 13.1 8.4 16.9 2.7 9.6 4.5 12.5 5.5 12.7 17.1 10.8 18.9 27.0 18.0 6.4 13.1 8.5 7.5 12.1 8.0 11.4 5.1 5.6 5.5 5.0 10.1 4.5 7.9 7.9 8.9 3.7 9.5 14.1 7.7 5.7 6.5 10.8 14.7 14.4 5.1 Determine la media y la desviación típica de los datos. Dibuje el histograma correspondiente. Ejercicio 3.5 Una medida de la eficiencia de una torre de destilación es la velocidad de producción de vapor. En la tabla se recogen una serie de valores correspondientes a esta propiedad. 1170 1620 1495 1170 1710 1710 1530 1260 1440 1800 1170 1260 1170 1640 1800 1800 1530 1350 1800 1530 1170 1440 1530 1260 1350 1350 1350 1440 1170 1710 1620 1350 1730 1800 1800 1530 1440 1620 Determine la media y la desviación típica de los datos. Dibuje el histograma y diagrama de frecuencias asociado a estos datos. ¿Por debajo de que valor se encuentra el 90 % de los datos?. 3.4.1. Soluciones a los ejercicios Esperanza matemática de una magnitud aleatoria Ejercicio 3.1 La media viene dada por (ecuación 3.12) µx = E {x} = ∫ +∞ −∞ x · f(x) dx 46 4 Distribuciones de probabilidad de variables aleatorias discretas Contenidos ✍ Distribución uniforme Descripción y propiedades. ✍ Distribución binomial Descripción y propiedades. Teorema de Moivre. ✍ Distribución de Poisson Descripción y propiedades. La distribución de Poisson como límite de la distribución binomial. Convergencia de la distribución de Poisson a la distribución de Gauss. Objetivos ✓ Reconocer las características de la distribución uniforme de una variable aleatoria discreta ✓ Reconocer las características de un experimento de Bernuilli ✓ Realizar calculos de probabilidades de variables aleatorias que siguen un distribución binomial ✓ Calcular µ y σ de variables que siguen un distribución binomial ✓ Utilizar el teorema de Moivre para calcular probabilidades de resultados de un experimento de Bernuilli utilizando una distribución normal ✓ Realizar calculos de probabilidades de variables aleatorias que siguen un distribución de Poisson ✓ Calcular µ y σ de variables que siguen un distribución de Poisson ✓ Utilizar la distribución normal para calcular probabilidades de resultados de un experimento de Poisson ✓ Utilizar la distribución de Poisson para calcular probabilidades de resul- tados de un experimento de Bernuilli en el límite de probabilidades de exito bajas y número de pruebas grande 49 4.2 4.1. Distribución uniforme 4.1. Distribución uniforme ¿Qué variables aleatorias siguen esta función de probabilidad?. Esta distribución de probabilidad corresponde a variables aleatorias discretas que pueden tormar n valores, xi= x1, x2,..., xn y todos sus posibles valores tienen la misma probabilidad. La función de distribución de probabilidad es f(x) = P (X = xi) = 1 n donde i = 1, 2, . . . , n (4.1) La media y la varianza de la distribución vienen dadas por µ = n + 1 2 (4.2) σ2 = n2 − 1 12 (4.3) Ejemplo 1. Distribución de probabiblidad uniforme Considere la variable aleatoria X que corresponde a lanzar un dado y leer la cara superior del dado. Si el dado no está trucado, todos los resultados tienen la misma probabilidad y la función de distribución de probabilidad de esta variable aleatoria es x 1 2 3 4 5 6 f(x) 1 6 1 6 1 6 1 6 1 6 1 6 El diagrama de barras muestra la función de distribución de probabilidad. 50 4 4. Distribuciones de probabilidad de variables aleatorias discretas 4.2. Distribución binomial ¿Qué variables aleatorias siguen esta función de probabilidad?. Las variables que siguen la distri- bución binomial corresponden a los experimentos que cumplen tenemos un número fijo n de experimentos (pruebas) el resultado de cada experimento sólo puede tener dos valores (exito y fracaso) el resultado de un experimento es independiente de los anteriores y no influye en los posteriores Estos experimentos también son conocidos como pruebas de Bernuilli. Sea p (probabilidad de éxito) la probabilidad de que un suceso ocurra en una sola prueba de Bernuilli y q = 1− p (probabilidad de fracaso) será la probabilidad de que ocurra el suceso opuesto . La probabilidad de obtener x éxitos en n ensayos (x éxitos, n− x fracasos) esta dada por la función de probabilidad f(x) = P (X = x) = PB(X = x; n, p) = ( n x ) pxqn−x = n! x!(n− x)! pxqn−x (4.4) donde la variable aleatoria X denota el número de éxitos en n pruebas. Esta función de probabilidad discreta se denomina distribución binomial o de Bernuilli. Una variable aleatoria con está distribu- ción de probabilidad se dice que está distribuida binomialmente. La media y la varianza de la distribución vienen dadas por µ = np (4.5) σ2 = npq = np(1− p) (4.6) Ejemplo 2. Cálculo de probabiblidades de una variable binomial Determine la probabilidad de obtener 2 caras en un seis lanzamientos de una moneda al aire. ¿Es este experimento una prueba de Bernuilli? tenemos un número fijo de experimentos n = 6 el resultado de cada experimento sólo puede tener dos valores (cara, p = 0,5 y cruz, q = 0,5) el resultado de cada experimento (lanzar una moneda al aire) es independiente de los anteriores y no influye en los posteriores Utilizando la ecuación 4.4 calcularemos la probabildad del resultado PB(X = 2; 6, 0,5) = ( 6 2 ) 0,520,56−2 = 6! 2!4! 0,520,54 = 15× 0,25× 0,0625 = 0,235 51 4.2 4.2. Distribución binomial Si X1 ≡ Br79 y X2 ≡ Br81, los isotopos de bromo pueden presentarse en la especie RBr3 en las combinaciones RX1X1X1, RX1X1X2 , RX1X2X2 y RX2X2X2 Es decir, aparecerán cuatro picos en el espectro de masas distintas. La intensidad relativa de los picos depende de la frecuencia con la que se observe cada una de las combinaciones. Como estamos trabajando con número de moléculas muy grandes  1019, podemos suponer que la intensidad relativa con la que observamos cada pico, que depende de la frecuencia con la que observamos cada una de los halocarburos, es igual a la probailidad de observar un halocarburo de la masa indicada. La probabilidad de obtener cada halocarburo viene dada por una distribución binomial con n = 3, p = 0,5069 y q = 0,4931. P (RBr793 ) = PB(X = 3; 3, 0,5069) = ( 3 3 ) 0,506930,49310 = 0,1302 P (RBr792 Br 81) = PB(X = 2; 3, 0,5069) = ( 3 2 ) 0,506920,49311 = 0,3801 P (RBr79Br812 ) = PB(X = 1; 3, 0,5069) = ( 3 1 ) 0,506910,49312 = 0,3698 P (RBr813 ) = PB(X = 0; 3, 0,5069) = ( 3 0 ) 0,506900,49313 = 0,1199 La distribución de intesidades de los picos puede representrase con un diagrama de barras donde M es la masa de la especie RBr793 , M + 2 es la masa de la especie RBr 79 2 Br 81, M + 3 es la masa de la especie RBr79Br812 , y M + 3 la masa de la especie RBr 81 3 . 54 4 4. Distribuciones de probabilidad de variables aleatorias discretas 4.2.1. Teorema de Moivre Para tamaños de la muestra tales que los valores del producto npq >5 (tamaños de muestra gr- nades), el comportamiento de la distribución binomial se asemeja al de una distribución normal con media µ = np y varianza σ2 = npq. Esta propiedad es conocida como teorema de Moivre. Como la distribución binomial es una distribución de variables discretas, hay que hacer una correc- ción de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distri- bución gaussiana las probabilidades se calculan como PB(X = a; n, p) =PG(a− 0,5 ≤ X ≤ a + 0,5) PB(a < X < b; n, p) =PG(a + 0,5 ≤ X ≤ b− 0,5) PB(a ≤ X ≤ b; n, p) =PG(a− 0,5 ≤ X ≤ b + 0,5) Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu- ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación 4.4 PB(X = x; n, p) = n! x!(n− x)! pxqn−x (4.10) 4.3. Distribución de Poisson Esta distribución describe el número de sucesos que ocurren en un intervalo de tiempo fijo o en un volumen del espacio o por unidad de producto dado cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de ocurrencia o densidad promedio. Es decir, el número de éxitos que observamos en cada unidad de tiempo, área o producto es totalmente al azar (sólo conocemos su valor medio) y que cada intervalo de tiempo es independiente de otro intervalo dado, así como cada área es independiente de otra área dada y cada producto es independiente de otro producto dado. Esta definición es un tanto abstracta y se comprende mejor con algunos ejemplos de variables que tienen este comportamiento: número de partículas emitidas por una fuente radiativa en un tiempo definido, número de fotones emitidos por una molécula en su desexcitación fluorescente desde un estado excitado, número de errores cometidos por página al transcribir un texto,número de bacterias por cm2 de cultivo, etc. El espacio muestral de la variable X distribuida de acuerdo con una distribución de Poisson son los enteros {0,1,2, ...} y la función de distribución viene dada por: f(x) = P (X = x) = 1 x! λxe−λ x = 0, 1, 2, . . . (4.11) donde λ es una constante positiva. La media y la varianza de esta distribución vienen dadas por µ = λ (4.12) 55 4.3 4.3. Distribución de Poisson σ2 = λ (4.13) Ejemplo 6. Cálculo de la varianza de una variable que sigue una distribución de Poisson Como parte de un experimento para determinar la vida media de dos isótopos radiactivos de plata, se registraron simultáneamente el número de partículas emitidas en intervalos de dos se- gundos en las cercanías de la plata. Los experimentos se repitieron 20 veces y se obtuvo un valor medio de 1.69 partículas por segundo. ¿Cuál es la desviación típica de las medidas?. La distribución de Poisson describe el número de sucesos que ocurren en un intervalo de tiempo fijo cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de ocurrencia. De modo que µ = λ = 1,69 y σ2 = λ = 1,69. La desviación típica viene dada por σ = √ λ = √ 1,69 = 1,30 partículas por segundo Ejemplo 7. Cálculo de probabilidades de una variable que sigue una distribución de Poisson En un experimento de detección de neutrinos se observaron 8 neutrinos coincidentes con la observación óptica de la explosión de la supernova 1987A. (a) Calcule la probabilidad de realizar esta observación si en promedio se detectan 2 neutrinos por día. (b) Calcule la probabilidad de la observación teniendo en cuenta que los ocho neutrinos se ob- servaron en el espacio de 10 minutos. (a) λ = 2 neutrinos.dia−1 Utilizando la ecuación 4.11 P (X = x) = 1 x! λxe−λ (4.14) P (X = 8) = 1 8! 28e−2 = 9,0 10−4 (4.15) La probabilidad es muy baja. Puede esperarse una correlación entre la explosión de la supernova y la detección de los neutrinos. (b) En este caso λ = 2 24∗6 = 0,014 Utilizando de nuevo la ecuación 4.11 P (X = 8) = 1 8! 0,0148e−0,014 = 3,3 10−20 (4.16) La ocurrencia del suceso obsevado es extremadamente improbable y posiblemente se correlacio- ne con la explosión de la supernova u otro proceso no observado. 56 4 4. Distribuciones de probabilidad de variables aleatorias discretas Figura 4.2: Relación entre las distribuciones binomial, Poisson y Gauss o normal. 4.4. Ejercicios y problemas Cuestión 4.1 Considere una distribución binomial PB(x; n, p) con n = 6, y p=0.5. Calcule su media. Cuestión 4.2 Considere una distribución binomial PB(x; n, p) con n = 6, y p=0.5. Calcule la varianza. Cuestión 4.3 Considere una distribución binomial PB(x; n, p) con n = 6, y p=0.25. Calcule su media. Cuestión 4.4 Considere una distribución binomial PB(x; n, p) con n = 6, y p=0.25. Calcule la varianza. Cuestión 4.5 En la realización de un programa informático el número de errores cometidos por página sigue una distribución de Poisson de varianza 2. ¿Cuál es la probabilidad de no cometerlos en un programa de 20 páginas? 59 4.4 4.4. Ejercicios y problemas Ejercicios de repaso Ejercicio 4.1 En la teoría cinética de los gases, la probabilidad de que una molécula de un gas ideal tenga una velocidad entre v y v + dv está dada por P (v) = cv2e− mv2 2kT dv donde k es la constante de Boltzmann y T la temperatura en Kelvin del gas. Determine (a) la constante c, (b) la velocidad media y (c) la velocidad más probable. Nota: Para resolver el problema utilice una tabla de integrales. Ejercicio 4.2 La duración en horas de un componente eléctrico es una variable aleatoria con una función de distribución acumulada dada por F (X) = { 1− e− x50 x > 0 0 x ≤ 0 Determine:(a)la función densidad de probabilidad y (b) la probabilidad de que la duración del com- ponente exceda las 70 horas. Ejercicio 4.3 Calcular la varianza de g(x) = 2x + 3, donde X es una variable aleatoria con distri- bución de probabilidad x 0 1 2 3 f(x) 1 4 1 8 1 2 1 8 Ejercicio 4.4 Sea X una variable aleatoria con la siguiente distribución de probabilidad: x -3 6 9 f(x) 1 6 1 8 1 2 Calcule µg(x) donde g(x) = (2x + 1)2. Distribución binomial Ejercicio 4.5 Se considera una variable aleatoria de Bernoulli que toma el valor 1 con probabilidad 0.01. Se toma una muestra de tamañoo n. Calcular el valor mínimo que debe tener n para que la probabilidad de obtener al menos una vez como resultado un 1 sea mayor o igual que 0.95. Ejercicio 4.6 Si la probabilidad de que el vapor se condense en un tubo de aluminio de cubierta delgada a 10 atm de presión es de 0.40, si se prueban 12 tubos de ese tipo y bajo esas condiciones, determine la probabilidad de que: a) el vapor se condense en 4 de los tubos, b) en más de 2 tubos se condense el vapor, c) el vapor se condense en exactamente 5 tubos. 60 4 4. Distribuciones de probabilidad de variables aleatorias discretas Ejercicio 4.7 La probabilidad de que el nivel de ruido de un amplificador de banda ancha exceda de 2 dB (decibelios) es de 0.15, si se prueban 10 amplificadores de banda ancha, determine la probabi- lidad de que; a) en solo 5 de los amplificadores el nivel de ruido exceda los 2 dB, b) por lo menos en 2 de los amplificadores, el ruido exceda de 2 dB, c) encuentre el número esperado de amplificadores que se exceden de un nivel de ruido de 2 dB y su desviación estándar. Ejercicio 4.8 En un experimento se comprobó que la aplicación de un tratamiento químico aumen- taba la resistencia a la corrosión de un material en un 80 % de los casos. Si se tratan ocho piezas, determine (i) Probabilidad de que el tratamiento sea efectivo para más de cinco piezas. (ii) Probabilidad de que el tratamiento sea efectivo para al menos tres piezas. (iii) Número de piezas para las que espera que el tratamiento sea efectivo. Ejercicio 4.9 Considere el espectro de masas de un halocarburo CnH2n+2−xClx con x = 1,2 y 3. Suponiendo que n = 3 y que dispone de una muestra en la que los tres compuestos están presentes en igual concentración, determine las masas en las que esperaría encontrar un pico en el espectro y la intensidad relativa de los picos. Tenga en cuenta que el cloro presenta dos isótopos Cl35 y Cl37 con abundancias relativas 0.67 y 0.33 respectivamente. Suponga que todo el hidrogeno y el carbono de las muestras corresponde a los isótopos H1 y C12. Ejercicio 4.10 Se dispone de un cristal que tiene dos tipos de impurezas que absorben radiación de la misma longitud de onda. Una de ellas emite un electrón tras la absorción de un fotón, mientras que la segunda no emite electrones. Las impurezas están en igual concentración y distribuidas ho- mogeneamente en el cristal. Sin embargo, la sección eficaz de absorción, que es una medida de la probabilidad de absorber un fotón, es 90 veces mayor para la impureza que emite electrones que el de la impureza que no los emite. Suponiendo que sobre el cristal inciden 200 fotones y que este es lo suficientemente grande para absorber todos, calcule la probabilidad de que al menos se emitan tres electrones. Distribución de Poisson Ejercicio 4.11 Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las proba- bilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondos en cualquiera de dos días consecutivos? Ejercicio 4.12 En la inspección de una hojalata producida por un proceso electrolítico continuo, se identifican 0.2 imperfecciones en promedio por minuto. Determine las probabilidades de identificar a) una imperfección en 3 minutos, b) al menos dos imperfecciones en 5 minutos, c) un máximo de una imperfección en 15 minutos. Ejercicio 4.13 Consideremos que el número de trozos de chocolate en una determinada galleta sigue una distribución de Poisson. Queremos que la probabilidad de que una galleta seleccionada al azar tenga por lo menos tres trozos de chocolate sea mayor que 0.8. Encontrar el valor entero más pequeño de la media de la distribución que asegura esta probabi- lidad. 61 4.4 4.4. Ejercicios y problemas Ejercicio 4.12 a) x representa la variable que define el número de que nos define el número de imperfecciones en la hojalata cada 3 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 3 = 0,6 es el número medio de imperfecciones en tres minutos. Utilizando de nuevo la ecuación 4.11 obtenemos P (X = 1) = 1 1! 0,61e−0,6 = 0,6 · 0,548845 1 = 0,329307 b) x representa la variable que define el número de que nos define el número de imperfecciones en la hojalata cada 5 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 5 = 1 es el número medio de imperfecciones en tres minutos. Utilizando de nuevo la ecuación 4.11 obtenemos P (X ≥ 2) = P (X = 2, 3, . . .) = 1− P (X ≤ 1) = 1− P (0)− P (1) P (X ≥ 2) = 1− ( 1 0! 10e−1 + 1 1! 11e−1 ) = 1− (0,367918 + 0,36718) = 0,26416 c) x representa la variable que define el número de que nos define el número de imperfecciones en la hojalata cada 15 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 15 = 3 es el número medio de imperfecciones en tres minutos. Utilizando de nuevo la ecuación 4.11 obtenemos P (X ≤ 1) = P (X = 0)+P (X = 1) = 1 0! 30e−3 + 1 1! 31e−3 = 0,0498026+0,149408 = 0,1992106 Ejercicio 4.13 Sea X = número de trozos de chocolate en una galleta donde queremos evaluar P (X > 3; λ) > 0,8 P (X > 3) = 1− P (X ≤ 2) = 1− P (0)− P (1)− P (2) = 1− e−λ − λe −λ 1 − λ 2e−λ 2 Dando valores a λ = 1, 2, ..., 5 se obtiene λ 0 1 2 3 4 5 P (X > 3) 0.0803014 0.3233236 0.5768099 0.7618967 0.8753480 El valor más cercano a 0,8 lo proporciona λ = 4. 64 4 4. Distribuciones de probabilidad de variables aleatorias discretas 4.5. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de: ☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7]. X Revisa los contenidos del tema. Adecuado para revisar la teoría del tema. ☞ Capítulo 4. Distribuciones de Probabilidad especial del libro de Spiegel y cols.[5]. Se recomienda revisar los ejercicios resueltos: • Distribución binomial 4.1 a 4.6, y 4.9X • Distribución de Poisson 4.22 X Como ejercicios de repaso se recomienda realizar los ejercicios: • Distribución binomial 4.63, 4.64, 4.65,4.67, 4.68, 4.69 • Distribución de Poisson 4.90, 4.93 Los comportamientos límite de estas distribuciones binonial y de Poisson se estudiarán en el tema 5. ☞ Capítulo 4. Algunas distribuciones discretas de probabilidad. del texto de Walpole y Myers[6]. 65 5 5. Distribuciones de probabilidad de variables aleatorias continuas 5.1. Distribución uniforme Una variable aleatoria X sigue una distribución uniforme en el intervalo [a,b] cuando su función densidad de probabilidad es f(x) =  0 x < a 1 b−a a ≤ x ≤ b 0 x > b (5.1) Su función de densidad de probabilidad integrada es F (x) =  0 x < a x−a b−a a ≤ x ≤ b 1 x > b (5.2) La media y la varianza de la distribución vienen dadas por µ = a + b 2 (5.3) σ2 = (b− a)2 12 (5.4) Esta distribución sólo depende de los parámetros a y b que están comprendidos en el intervalo (−∞, +∞). Figura 5.1: Distribución de densidad de probabilidad de una variable uniforme continua. 69 5.2 5.2. Distribución normal o Gaussiana 5.2. Distribución normal o Gaussiana La función de densidad de probabilidad de una variable x que sigue una función de distribución normal o gausiana viene dada por f(x) = 1√ 2 π σ(x) e − (x−µx) 2 2σ2(x) (5.5) donde µx y σ(x) son la media y la desviación típica de X respectivamente, y la variable alatoria puede estar comprendida en el intervalo −∞ < x < +∞. Si una variable aleatoria sigue una distribución normal sólo necesitamos conocer µx y σ(x) para caracterizar la distribución de los datos. La función de distribución de probabilidad viene dada por F (x) = P (x ≤ x) = 1√ 2π σ(x) ∫ x −∞ e − (x−µx) 2 2σ2(x) dx (5.6) En el trabajo con variables aleatorias que siguen una distribución normal es conveniente utilzar la variable normalizada z, que se calcula como z = x− µx σ(x) (5.7) Esta variable tiene la ventaja de que cualesquiera sean los valores de µx y σ(x), z siempre si- gue una distribución normal con media µz = 0 y desvición típica σ(z) = 1. En general f(z) o F(z) se evaluan utilizando un programa informático o utilizando tablas1 (ver apéndices).Por comodidad utilizaremos tablas e ilustraremos su uso en los ejemplos. Figura 5.2: Distribución de densidad de probabilidad de Gauss estanzarizada. 1En la tabla del apéndice correspondiente a la distribución normal se tabula P(0<Z<z). 70 5 5. Distribuciones de probabilidad de variables aleatorias continuas Figura 5.3: Distribución de densidad de probabilidad de Gauss con idéntica media µx = 0 y distinta varianza σ2(x) = 1 (línea continua) y σ2(x) = 0,25 (línea discontinua). Ejemplo 1. Cálculo de probabiblidades de una variable normal (I) Hallar la probabilidad de que la magnitud aleatoria z (µz=0, σ(z)=1) este comprendida en el intervalo (-1.96,1.96). Teniendo en cuenta los postulados que definen la probabilidad: P (−1,96 ≤ z ≤ 1,96) = P (−1,96 ≤ z ≤ 0) + P (0 ≤ z ≤ 1,96) La distribución gausiana es una distribución simétrica P (−z ≤ Z) = P (z ≤ Z) P (−1,96 ≤ z ≤ 1,96) = 2 P (0 ≤ z ≤ 1,96) De acuerdo con el apéndice 1 P (0 ≤ Z ≤ 1,96) = 0,475 y P (−1,96 ≤ Z ≤ 1,96) = 2 ∗ 0,475 = 0,990 71 5.2 5.2. Distribución normal o Gaussiana Ejemplo 3. Cálculo de probabiblidades de una variable normal (III) Calcule la probabilidad de que la concentración de cloruros, c, en una muestra de agua este en el intervalo 31,50 a 38,50 mg/l si la concentración media de cloruros es 35,00 mg/l con una desviación típica de 3,5 mg/l. Calculamos la variable normal tipificada que corresponde a cada uno de los límites del intervalos: zmin = 31,5− 35 3,5 = −1,0 zmax = 38,5− 35 3,5 = 1,0 de modo que P (28,5 ≤ c ≤ 38,5) = P (−1 ≤ z ≤ 1) = 2 ∗ P (0 ≤ z ≤ 1) = 0,6826 Este resultado supone que si nuestros resultados siguen una distribución normal, esperamos que el 68.26 % de las medidas se encuentren en el intervalo µx ± σ(x). En el caso estudiado este intervalo comprende las concentraciones 28,5 ≤ c ≤ 38,5 mg/l. Ejemplo 4. Cálculo de probabiblidades de una variable normal (IV) Cierta magnitud X sigue una distribución normal de media 3 y varianza 4. ¿Cuál es la probabili- dad de observar los resultados X > 3.5, X < 1.2 y 2.5 <X < 3.5?. P (X > 3,5) =P (Z > 0,25) = 1− P (Z < 0,25) =0,5− P (0,00 ≤ Z ≤ 0,25) = 0,4013 P (X < 1,2) =P (Z < −0,9) = =0,5− P (−0,9 ≤ Z ≤ 0,0) =0,5− P (0,0 ≤ Z ≤ 0,9) = 0,1841 P (2,5 < X < 3,5) =P (−0,25 < Z < 0,25) =P (−0,25 ≤ Z ≤ 0,0) + P (0,0 ≤ Z ≤ 0,25) =2 ∗ P (0,0 ≤ Z ≤ 0,25) = 2 ∗ 0,0987 = 0,1974 74 5 5. Distribuciones de probabilidad de variables aleatorias continuas 5.2.1. ¿Qué variables aleatorias siguen una distribución normal? La media muestral x̄ de una variable X que sigue una distribución normal Teorema 5.1 Si una variable aleatoria x1 sigue una distribución normal de media µ1 y varianza σ21 , y otra variable aleatoria x2 sigue una distribución normal de media µ2 y varianza σ22 , y ambas son independientes, la variable aleatoria x3 = x2 ± x1 sigue una distribución normal de media µ3 y varianza σ23 µ3 =µ1 + µ2 (5.8) σ23 =σ 2 1 + σ 2 2 (5.9) Esta propiedad puede extenderse a la suma de n variables aleatorias independientes distribuidas normalmente. Corolorario 5.1 La variable aleatoria media muestral x̄ de muestras de tamaño n de una variable aleatoria X que sigue una distribución normal f(x) = PN(x; µx̄, σ(x̄)) de media µx̄ µx̄ = µx (5.10) y varianza, σ2(x̄) σ2(x̄) = σ2(x) n (5.11) En este caso la magnitud tipificada z viene dada por z = x̄− µx̄ σ(x̄) = x̄− µx σ(x)/ √ n (5.12) 75 5.2 5.2. Distribución normal o Gaussiana Figura 5.6: Funciones de densidad de probabilidad gaussianas. Comparación de la distribución de los datos (negra) y las distribución de las medias de muestras de tamaño n (azul). Ejemplo 5. Cálculo de probabiblidades de una variable normal: distribución de las medias Una aleación de cobre contiene una media de 41.26 % de este metal (determinado como la media de las determinaciones de varios laboratorios) con una desviación típica de 0.12 %. ¿Cuál es la probabilidad de que al realizar un análisis de nueve muestras se obtengan porcentajes de cobre entre el 41.30 % y el 41.50 %?. ¿Y se tomaran dieciséis muestras?. En este ejemplo µ(x) = 41,26 y σ(x) = 0,12 , donde x es el resultado de la medida. De acuerdo con el corolario 5.1, x̄ esta distribuido normalmente con media µx̄ = µx = 41,26 y desviación típica σ(x̄) = σ(x)/ √ n tendremos (a) con nueve muestras σ(x̄) = 0,12√ 9 = 0,04 y las variables tipificadas correspondientes serán: z = x̄− µx σ(x)/ √ n z = x̄1 − µx σ(x)/ √ n = 41,30− 41,26 0,04 = 1,0 z = x̄2 − µx σ(x)/ √ n = 41,50− 41,26 0,04 = 6,0 76 5 5. Distribuciones de probabilidad de variables aleatorias continuas Una variable discreta que sigue una distribución binomial cuando el número de experimentos, n, es grande De acuerdo con el teorema de Moivre, para tamaños de la muestra tales que los valores del produc- to npq >5 (tamaños de muestra grnades), el comportamiento de la distribución binomial se asemeja al de una distribución normal con media µ = np y varianza σ2 = npq. Esta propiedad es conocida como teorema de Moivre. Como la distribución binomial es una distribución de variables discretas, hay que hacer una correc- ción de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distri- bución gaussiana las probabilidades se calculan como PB(X = a; n, p) =PG(a− 0,5 ≤ X ≤ a + 0,5) PB(a < X < b; n, p) =PG(a + 0,5 ≤ X ≤ b− 0,5) PB(a ≤ X ≤ b; n, p) =PG(a− 0,5 ≤ X ≤ b + 0,5) Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu- ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación 4.4 PB(X = x; n, p) = n! x!(n− x)! pxqn−x (5.13) Figura 5.9: Distribución de probabilidad para una variable binomial con n = 25, p = 0,5 y q = 0,5 y la distribución normal con µx = np = 12,5 y σ2(x) = npq = 6,25. 79 5.3 5.3. La distribución t de Student Una variable discreta que sigue una distribución de Poisson con λ grande Para valores grandes de λ la función de distribución de Poisson puede aproximarse mediante una distribución de probabilidad gaussiana con µ = λ y σ2 = λ. Figura 5.10: Relación entre las distribuciones binomial, Poisson y Gauss o normal. 5.3. La distribución t de Student Una variable aleatoria continua t, que puede tomar valores en el intervalo 0 ≤ t < ∞ y tiene una función densidad de probabilidad f(t) = 1√ πν Γ ( ν+1 2 ) Γ ( ν 2 ) (1 + t2 ν )−( ν+12 ) (5.14) se dice que está distribuida de acuerdo con una distribución t de Student con ν grados de libertad2. Es importante observar en la ecuación 5.14 que la función de distribución está completamente caracterizada por un solo parámetro: ν el número de grados de libertad. La media no depende del número de grados de libertad y es µt = 0 (5.15) mientras que la varianza sólo depende del número de grados de libertad σ2(t) = ν ν − 2 (5.16) Cuando ν es grande, σ2(t) ≈ 1. Además, puede demostrarse que para valores grandes de ν (ν ≥ 20) se puede considerar a la función t de Student se comporta como una distribución normal de media 0 y varianza 1. 2En la expresión de f(t), Γ(z) es la función gamma de Euler, que viene dada por Γ(z) = ∫∞ 0 νz−1e−νdν con ν > 0 80 5 5. Distribuciones de probabilidad de variables aleatorias continuas Figura 5.11: Distribución t de Student con distintos grados de libertad. 5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student? Teorema 5.3 Sean Z e Y dos variables aleatorias independientes. Si Y está normalmente distribuida con media 0 y varianza 1, mientras que Z tiene una distribución chi-cuadrado χ2 con ν grados de libertad. Entonces la variable aleatoria T T = y√ z/ν (5.17) sigue una distribución t de Student con ν grados de libertad. Utilizando este teorema se puede demostrar que la variable aleatoria t definida como t = x̄− µx̄ s(x̄) = x̄− µx s(x)/ √ n (5.18) está distribuida con arreglo a una distribución t de Student con ν = n− 1 grados de libertad. En el apéndice 2 se proporcionan los valores de las percentilas tp para distribuciones t de Student con ν grados de libertad. La percentila es el valor que toma la variable aleatoria, t en nuestro caso, para que se cumpla que P (t(ν) ≤ tp(ν)) = p (5.19) 81 5.4 5.4. La distribución χ2 5.4. La distribución χ2 Se dice que una variable aleatoria sigue una distribución chi-cuadrado o χ2 con ν grados de libertad si su función de distribución de probabilidad tiene la forma P (χ2 ≤ x) { 0 si x < 0 1√ 2Γ( ν 2 ) ∫ x 0 u ν 2 −1e− ν 2 du si x > 0 (5.21) Note que la función de distribución esta caracterizada por un sólo parámetro, ν. Para esta distribución µχ2 = ν (5.22) σ2(χ2) = 2ν (5.23) Figura 5.12: Distribuciones χ2 con distintos grados de libertad, ν. En el apéndice 3 se recogen los valores de las percentilas de distribuciones χ2 con ν grados de libertad, es decir P (χ2(ν) ≤ X2) = χ2p(ν) = p (5.24) 5.4.1. ¿Qué variables aleatorias siguen una distribución χ2 ? Teorema 5.4 Suponga que dispone de n magnitudes aleatorias independientes x1, x2, x3, . . ., xn distribuidas de acuerdo con una distribución normal de parámetros µx y σ(x). Si definimos la variable Ui tal que Ui = xi − µx σ(x) (5.25) 84 5 5. Distribuciones de probabilidad de variables aleatorias continuas la suma χ2 = n∑ i=1 U2i = n∑ i=1 (xi − µx)2 σ2(x) (5.26) está distribuida de acuerdo con una distribución χ2 con ν = n grados de libertad. A partir de este teorema se puede demostrar que la variable aleatoria X2 X2 = (n− 1) s 2(x) σ2(x) (5.27) sigue una distribución χ2 con ν = n− 1 grados de libertad. Ejemplo 8. Intervalos de probabilidad de variables que siguen una distribución χ2 Suponga que hace cinco medidas de una cantidad distribuida normalmente con media µ = 0,05 y se obtienen los valores 0.041, 0.064, 0.055, 0.046, 0.060. Estime la varianza de la distribución. Suponga que la varianza es conocida y tiene el va- lor σ2(x) = 1,0 10−4. Determine si el valor de X2 obtenido se encuentra en el intervalo P (χ20,025(ν) ≤ x2 ≤ χ20,975(ν)). x̄ = ∑ xi n = 0,2666 5 = 0,0532 s2(x) = ∑ (xi − x̄)2 n− 1 = 9,17 10−5 De acuerdo con el teorema X2 X2 = (n− 1) s 2(x) σ2(x) = 4 9,17 10−5 1 10−5 = 3,68 sigue una distribución χ2 con ν = 4 grados de libertad. De acuerdo con las tablas del apándice A.3, P (χ20,025(ν = 4) ≤ X2) = 0,484 P (χ20,975(ν = 4) ≤ X2) = 11,1 Es decir el valor de x2 obtenido está dentro del intervalo indicado 85 5.4 5.4. La distribución χ2 Ejemplo 9. Intervalos de probabilidad de la varianza muestral Se desea contrastar la hipótesis de que la varianza de una población normal es σ2(x) = 1(u.a.)2. Para ello se realizaron 9 medidas de esa magnitud obteniendose un valor de la varianza muestral s2(x) = 1,71(u.a.)2. Determine si este resultado es compatible con la hipótesis propuesta (hipótesis nula). Utilice como criterio para aceptar la hipótesis nula que si la hipótesis es cierta se cumple que χ20,025(ν) ≤ X2 ≤ χ20,975(ν). Determine el intervalo de valores de s2(x) compatibles con la hipótesis nula. Calculamos el valor de la variable X2 X2 = (n− 1) s 2(x) σ2(x) = 8 1,71 1,0 = 13,6 De acuerdo con las tablas del apándice A.3, P (χ20,025(ν = 8) ≤ X2) = 2,18 P (χ20,975(ν = 8) ≤ X2) = 17,5 Ya que el criterio se cumple aceptamos la hipótesis nula. El intervalo de valores de X2 compatibles con la hipótesis nula vendrá dado por χ20,025(ν = 8) ≤ (n− 1) s2(x) σ2(x) ≤ χ20,975(ν = 8) 2,18 ≤ (n− 1) s 2(x) σ2(x) ≤ 17,5 2,18 σ2(x) n− 1 ≤ s2(x) ≤ 17,5σ 2(x) n− 1 0,273 ≤ s2(x) ≤ 2,192 86 5 5. Distribuciones de probabilidad de variables aleatorias continuas Corolorario 5.2 Sean dos muestras aleatorias independientes de tamaños m y n, respectivamente, que se obtienen de poblaciones normales con varianzas σ21(x) y σ 2 2(y) respectivamente. De acuerdo con el teorema anterior, la variable aleatoria f = ms21(x)/(m− 1)σ21(x) ns22(y)/(n− 1)σ22(y) (5.33) obedece una ley de Fisher con ν1 = m− 1 y ν2 = n− 1 grados de libertad. En el caso en que σ21 = σ 2 2 , la expresión anterior se simplifica a f = s21(x) s22(y) (5.34) Los apéndices A.4 y A.5 se recogen los valores de F con ν1 y ν2 grados de libertad para los que la función de distribución de probabilidad iguala a 0.95 y 0.99 . Es decir se tabulan los valores de la variable aleatoria f que cumplen: P (f ≤ F0,95; ν1, ν2) = 0,95 P (f ≤ F0,95; ν1, ν2) = 0,99 Ya que en general Fp(ν1, ν2) 6= Fp(ν2, ν1), para calcular Fexp designaremos los valores de s1 y s2 de modo que s21 > s 2 2 Ejemplo 11. Comparación de varianzas (I) La varianzas muestrales obtenidas al aplicar dos métodos A y B para determinar el valor de una magnitud son s2(A) =45,34 10−4 s2(B) =11,11 10−4 En ambos experimentos se realizaron 9 medidas. ¿Es mayor la varianza en el método A que la del método B?. Supondremos que las medidas están distribuidas normalmente. Formularemos la hipétesis nula H0 : σ21 = σ 2 2 , de modo que si esta hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria fexp = s2(A) s2(B) (5.35) sigue una distribución F con ν1 = m− 1 = 8 y ν2 = n− 1 = 8 grados de libertad. 89 5.5 5.5. La distribución F de Fisher Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 % de las medidas si la hipótesis nula es cierta, fexp ≤ F0,95(8, 8) Si esto no se cumple, supondremos valida la hipótesis alternativa H1 : σ21 > σ 2 2 , que queremos contrastar. Calculamos fexp fexp = 45,34 10−4 11,11 10−4 = 4,0 (5.36) En la tabla del apéndice A.4 encontramos F0,95(8, 8) = 3,44 de modo que fexp > F0,95(8, 8), rechazamos H0, las varianzas son iguales, y aceptamos la hipotesis alternativa: la varianza del método A es mayor que la del método B. Ejemplo 12. Comparación de varianzas (II) Un ingeniero químico estudió la variabilidad de dos dispositivos de monitorización de un proceso dentro de una planta. En el estudio de la variabilidad de ambos equipos obtuvo el siguiente resultado Equipo 1. s21 = 13,5 n1 = 12 Equipo 2. s22 = 10,53 n2 = 10 Tras analizar los datos, ¿puede afirmar el ingeniero que la variabilidad del primer equipo es mayor que la del segundo?. Supondremos que las medidas están distribuidas normalmente. Formularemos la hipétesis nula H0 : σ21 = σ 2 2 , es decir, no hay diferencias en la variabilidad. Si esta hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria fexp = s21 s22 (5.37) sigue una distribución F con ν1 = m− 1 = 11 y ν2 = n− 1 = 9 grados de libertad. Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 % de las medidas si la hipótesis nula es cierta, fexp ≤ F0,95(11, 9) Si esta condición no se cumple, supondremos valida la hipótesis alternativa H1 : σ21 > σ 2 2 , que es la hipótesis que queremos contrastar. 90 5 5. Distribuciones de probabilidad de variables aleatorias continuas Calculamos fexp fexp = 13,5 10,53 = 1,31 (5.38) En la tabla del apéndice A.4 encontramos F0,95(11, 9) = 3,10 de modo que fexp < F0,95(11, 9). Aceptamos H0,las varianzas son iguales. Esto quiere decir que la variabilidad de los dos métodos es la misma. Ejemplo 13. Comparación de varianzas (III) La f.e.m. de una pila Cu|Zn fue medida con dos aparatos distintos. Con el primer aparato se obtuvo una varianza muestral s21(x) = 0,152 con 11 medidas. Con el segundo aparato el resultado fue s22(x) = 0,011 con 6 medidas. ¿Es consistente este resultado con la hipótesis σ21(x) = σ 2 2(x)?. Si la hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria fexp = s21 s22 (5.39) sigue una distribución F con ν1 = m− 1 = 10 y ν2 = n− 1 = 5 grados de libertad. Consideraremos que la hipótesis se cumple si fexp ≤ F0,99(10, 5) Calculamos fexp fexp = 0,152 0,011 = 13,82 (5.40) Por tanto, no podemos aceptar la hipótesis propuesta (hipótesis nula) por que la probabilidad de obtener ese resultado es muy pequeña. Es decir, el valor obtenido corresponde a un intervalo en el que de ser cierta la hipótesis nula encontraríamos el 1 % de los resultados experimentales. 91 5.6 5.6. Ejercicios y problemas Distribución normal Ejercicio 5.1 Dada una distribución normal estándar, encuentre el área bajo la curva que yace, (a) a la derecha de z = 1.84 y (b) entre z = -1.97 y z= 0.86. Ejercicio 5.2 Para una distribución normal estándar, encuentre el valor de k, tal que (a) P(Z>k) = 0.3015 y (b) P(k<Z<-0.18) = 0.4197. Ejercicio 5.3 Dada una distribución normal con µx = 50 y s(x) = 10, encuentre la probabilidad de que X tome un valor entre 45 y 62. Ejercicio 5.4 Dada una distribución normal con µx = 300 y s(x) = 500, encuentre la probabilidad de que X tome un valor mayor que 362. Ejercicio 5.5 Dada una distribución normal con µx = 40 y s(x) = 6, encuentre el valor de x que tiene (a) 45 Ejercicio 5.6 Cierto tipo de batería de almacenamiento dura, en promedio, 3.0 años, con una desvia- ción típica de 0.5 años. Suponga que la duración de las baterías se distribuye normalmente, encuentre la probabilidad de que una batería dure menos de 2.3 años. Ejercicio 5.7 Una empresa eléctrica fabrica focos que tienen una duración media de 800 horas y una desviación típica de 40 horas. Si la duración de los focos sigue una distribución normal, encuentre la probabilidad de que un foco se funda en el intervalo de 778 a 834 horas. Ejercicio 5.8 En un proceso industrial el diámetro de un cojinete es una parte importante de un componente. El comprador establece que las especificaciones en el diámetro sean 3.0 ± 0.1 cm. Se sabe que en el proceso el diámetro de un cojinete tiene una distribución normal con media 3.0 cm y una desviación típica de 0.005 cm. En promedio, ¿cuántos cojinetes se descartarán?. Ejercicio 5.9 El 6.3 % de las observaciones de una magnitud que sigue una distribución normal tiene un valor superior a 3.287, mientras que el 51.2 % tiene valores mayores que 2.897. Calcule la media y la varianza de la distribución. Ejercicio 5.10 Considere un experimento de medida del pH de una disolución acuosa caracterizado por µpH= 5.50 y σ2(pH) = 0.06. Determine el intervalo de valores en el que espera encontrar el 95 % de las medias muestrales de los experimentos que combinen el resultado de 25 determinaciones del pH de la disolución indicada. Distribución t de student. Ejercicio 5.11 Considere una variable aleatoria distribuida de acuerdo con una distribución t de Student con 9 grados de libertad. Encuentre el valor de t1 para el cual a) P (T > t1) = 0,05 b) P (T > t1) = 0,025 94 5 5. Distribuciones de probabilidad de variables aleatorias continuas c) P (−t1 < T < t2) = 0,99 d) P (−t1 < T < t2) = 0,975 e) P (T ≥ t1) = 0,90 Ejercicio 5.12 Considere una variable aleatoria distribuida de acuerdo con una distribución t. Encuentre el valor de t1 que satisfaga cada una de las siguientes condiciones a) P (−t1 < T < t1) = 0,90 y ν = 25. b) P (T < −t1) = 0,025 y ν = 20. c) P (T ≥ t1) = 0,55 y ν = 16 Ejercicio 5.13 Para una variable U que sigue una distribución t de Student con ν = 10 encuentre los valores de c que cumplen a) P (U > c) = 0,05. b) P (−c ≤ U ≤ c) = 0,98. c) P (U ≤ c) = 0,20. d) P (U ≥ c) = 0,90. Distribución χ2 Ejercicio 5.14 Un fabricante de baterías para automóvil garantiza que sus baterías durarán, en promedio, 3 años con una desviación estándar de 1 año. Si 5 de estas baterías tienen duraciones de l.9, 2.4, 3.0 ,3.5 y 4.2 años, ¿puede seguir el fabricante convencido aún de que la duración de sus baterías tiene una desviación estándar de 1 año? Ejercicio 5.15 Hallar los valores χ21(ν) y χ 2 2(ν) tales que con ν = 20,el área bajo la curva sea de 0.95, tales que χ21(ν) < χ 2 2(ν), y las áreas a la derecha de χ 2 2(ν) y a la izquierda de χ 2 1(ν) sean iguales. Note que sin estas consideraciones hay infinitos pares de valores χ21(ν) y χ 2 2(ν) que cumplen esta condición. 5.6.1. Soluciones a las cuestiones Cuestion 5.1 a) 0.9236, b) 0.8133 c) 0.2424 d) 0.0823 e) 0.0250 f) 0.6435 Cuestion 5.2 a) -1.72 b) 0.54 c) 1.28 Cuestion 5.3 a) 0.9850 b) 0.0918 c) 0.3371 d) 35.04 e) 23.1 y e) 36.9 Cuestion 5.4 a)19.36 % b) 39.70 % 95 5.6 5.6. Ejercicios y problemas Cuestion 5.5 a) 0.05 b) 0.94 Cuestion 5.6 a) 2.500 b) 1.319 c) 1.714 Cuestion 5.7 a) 27.488 b) 18.475 c) 36.415 Cuestion 5.8 a) 11.1 b) 30.144 c) 26.217 Cuestion 5.9 a) 13.277 b) 8.91 c) 46.928 Cuestion 5.10 a) -2.145 b) 2.76 c) 3.499 Cuestion 5.11 a) 2.71 b) 3.51 c) 2.92 5.6.2. Soluciones a los ejercicios Distribución normal Ejercicio 5.1 (a) P (z ≥ 1,84) = 0,5− P (0 ≤ z ≤ 1,84) = 0,5− 0,4671 = 0,0329 (b) P (−1,97 ≤ z ≤ 0,86) = P (−1,97 ≤ z ≤ 0) + P (0 ≤ z ≤ 0,86) = P (0 ≤ z ≤ 1,97) + P (0 ≤ z ≤ 0,86) = 0,4756 + 0,3051 = 0,7807 (a) (b) 96
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved