TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE...

28
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD. García Córdoba Dpto. Métodos Cuantitativos e Informáticos 1 ESQUEMA 1.1. Concepto de variable aleatoria. Definición formal. Notaciones. 1.1.1. Tipos 1.1.2. Función de distribución. 1.2. Variables aleatorias de tipo discreto. 1.2.1. Características: 1.2.1.1. Función puntual de probabilidad. 1.2.1.2. Esperanza y varianza de v.a. discretas. Propiedades. 1.2.2. Distribuciones discretas especiales. 1.2.2.1. La distribución de Bernoulli. 1.2.2.2. La distribución de Bernoulli. 1.2.2.3. La distribución Binomial. 1.2.2.4. La distribución de Poisson. 1.3. Variables aleatorias de tipo continuo. 1.3.1. Características: 1.3.1.1. Función de densidad. 1.3.1.2. Esperanza y varianza de v.a. continuas. Propiedades. 1.3.2. Distribuciones continuas especiales. 1.3.2.1 La distribución Uniforme. 1.3.2.2 La distribución Normal. 1.3.2.3. Distribuciones relacionadas con la Normal: χ 2 , t , F. 1.1.- VARIABLE ALEATORIA. Significado: Hasta ahora, se han estudiado características generales de los espacios probabilísticos (Ω,α,Ρ), donde Ω es el espacio muestral, α una σ-álgebra, y Ρ una función de probabilidad. Con frecuencia no interesará estudiar los sucesos de la σ-álgebra, sino una ó varias características numéricas ligadas con el resultado del experimento. Así podrá interesarnos al seleccionar un alumno de la Universidad, la probabilidad de que su nota sea superior ó igual a 5 (probabilidad de aprobar), ó con objeto de establecer un nuevo impuesto la probabilidad de que la renta anual de los individuos no sea superior a 20.000 euros. Estas características numéricas, a las que bajo determinadas condiciones podemos asociar una probabilidad, inducida por la probabilidad de los sucesos del experimento, reciben el nombre de variables aleatorias. Ejemplo 1: Si consideramos el experimento lanzar una moneda al aire tres veces, nuestro espacio muestral Ω estará formado por los ocho posibles resultados elementales del experimento, es decir Ω={(c,c,c),(c,c,+),(+,c,c), (+,c,+), (+,+,c),(c,+,c),(c,+,+), (+,+,+)}. Cada uno de estos sucesos (equiprobables) con una probabilidad de 1/8. Podemos definir una función que a cada uno de los resultados, le asigna el número de caras obtenidas: Χ Ω (c,c,c) 3 (c,c,+) 2 (+,c,c) 2 (+,c,+) 1 (+,+,c) 1 (c,+,c) 2 (c,+,+) 1 (+,+,+) 0 Es decir Χ((c,c,c))=3, Χ((c,c,+))=2, Χ((+,c,c))=2,...

Transcript of TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE...

Page 1: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 1

ESQUEMA

1.1. Concepto de variable aleatoria. Definición formal. Notaciones. 1.1.1. Tipos 1.1.2. Función de distribución. 1.2. Variables aleatorias de tipo discreto. 1.2.1. Características: 1.2.1.1. Función puntual de probabilidad. 1.2.1.2. Esperanza y varianza de v.a. discretas. Propiedades. 1.2.2. Distribuciones discretas especiales. 1.2.2.1. La distribución de Bernoulli.

1.2.2.2. La distribución de Bernoulli. 1.2.2.3. La distribución Binomial. 1.2.2.4. La distribución de Poisson. 1.3. Variables aleatorias de tipo continuo. 1.3.1. Características: 1.3.1.1. Función de densidad. 1.3.1.2. Esperanza y varianza de v.a. continuas. Propiedades. 1.3.2. Distribuciones continuas especiales. 1.3.2.1 La distribución Uniforme. 1.3.2.2 La distribución Normal. 1.3.2.3. Distribuciones relacionadas con la Normal: χ2 , t , F.

1.1.- VARIABLE ALEATORIA. Significado: Hasta ahora, se han estudiado características generales de los espacios probabilísticos (Ω,α,Ρ), donde Ω es el espacio muestral, α una σ-álgebra, y Ρ una función de probabilidad. Con frecuencia no interesará estudiar los sucesos de la σ-álgebra, sino una ó varias características numéricas ligadas con el resultado del experimento. Así podrá interesarnos al seleccionar un alumno de la Universidad, la probabilidad de que su nota sea superior ó igual a 5 (probabilidad de aprobar), ó con objeto de establecer un nuevo impuesto la probabilidad de que la renta anual de los individuos no sea superior a 20.000 euros. Estas características numéricas, a las que bajo determinadas condiciones podemos asociar una probabilidad, inducida por la probabilidad de los sucesos del experimento, reciben el nombre de variables aleatorias. Ejemplo 1: Si consideramos el experimento lanzar una moneda al aire tres veces, nuestro espacio muestral Ω estará formado por los ocho posibles resultados elementales del experimento, es decir Ω={(c,c,c),(c,c,+),(+,c,c), (+,c,+), (+,+,c),(c,+,c),(c,+,+), (+,+,+)}. Cada uno de estos sucesos (equiprobables) con una probabilidad de 1/8. Podemos definir una función que a cada uno de los resultados, le asigna el número de caras obtenidas: Χ

Ω ℜ (c,c,c) 3 (c,c,+) 2 (+,c,c) 2 (+,c,+) 1 (+,+,c) 1 (c,+,c) 2 (c,+,+) 1 (+,+,+) 0

Es decir Χ((c,c,c))=3, Χ((c,c,+))=2, Χ((+,c,c))=2,...

Page 2: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 2

Pues bien, la probabilidad de los sucesos elementales del experimento (1/8), induce una probabilidad sobre la característica numérica (número de caras) que es nuestra variable aleatoria. Así, la probabilidad nuestra variable aleatoria tome el valor 0, es: P(X=0)=P((+,+,+))=1/8 La probabilidad que nuestra variable X tome el valor 1, es: P(X=1)=P((+,c,+)U(+,+,c)U(c,+,+))=1/8 + 1/8 + 1/8 = 3/8 Definición 1: Dado un fenómeno aleatorio con espacio probabilístico asociado (Ω,α,Ρ), entenderemos por variable aleatoria X, una función definida sobre el espacio muestral Ω y cuyos valores son números reales que verifica que el conjunto {ω∈Ω / X(ω)< x }∈ α ℜ∈∀x . Ω * * * * x Se observa que el conjunto {ω∈Ω / X(ω)< x } lo podemos reescribir alternativamente como:

{ω∈Ω / X(ω)< x }={ω∈Ω / X(ω)∈(-∞, x] }= X-1( (-∞, x])

Definición 2: Esto nos permite definir alternativamente la variable aleatoria como todo función definida sobre el espacio muestral, que toma valores en el campo de los números reales de tal manera que la imagen inversa de cada intervalo de la forma (-∞, x] es un suceso de la σ-álgebra α. Esta exigencia de que la imagen inversa sea un suceso, se fundamenta en la necesidad de poder asignarle una probabilidad. Así pues, una variable aleatoria es una función con base en el resultado de un experimento aleatorio, y por tanto el valor de una variable aleatoria es un fenómeno aleatorio, pero a diferencia del experimento aleatorio original que puede tener resultados no numéricos (cara ó cruz en una moneda), el valor de la variable aleatoria es un fenómeno aleatorio cuyos resultados son siempre numéricos. Intuitivamente una variable aleatoria es una cantidad medida en relación con un experimento aleatorio. Si ω es un resultado de una realización del experimento aleatorio, llevamos a cabo un proceso de medida y obtenemos un número que denotamos por X(ω). Notación:Por motivos históricos, se utiliza el nombre de variables aleatorias, en lugar del de funciones, que es lo que son realmente, y en lugar de representarse como es usual en estas últimas por letras minúsculas, se describen mediante las últimas letras del abecedario U, V, W, X, Y, Z, siempre en mayúsculas. El término aleatoria que acompaña a su denominación se utiliza para diferenciarlas de su antecedente histórico, que la variable estadística, objeto de estudio en Estadística Descriptiva. Las variables estadísticas recogían una característica numérica observada en los individuos de una población (se contabilizaban los valores observados en términos de frecuencia relativa. En Teoría de la Probabilidad, además de no ser objeto de preocupación la forma funcional de X( ), los posibles valores de la variable se estudiarán en términos de probabilidad. Ejercicio 1: Veamos que la función definida en el ejemplo 1 es una variable aleatoria: Consideremos sobre el espacio muestral Ω la σ-álgebra Α=ρ(Ω)(Partes de Ω= todos los subconjuntos extraíbles de Ω): ∅∈Α si x < 0 {(+,+,+)}∈Α si 0<x<1 X-1( (-∞, x]) = {(+,+,+),(c,+,+),(+,c,+),(+,+,c)}∈Α si 1<x<2 {(+,+,+),(c,+,+),(+,c,+),(+,+,c) (c,c,+),(c,+,c),(+,c,c)}∈Α si 2<x<3 Ω∈Α si 3<x

Page 3: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 3

Luego ∀ x ∈ℜ, X-1( (-∞, x]) ∈Α y por tanto X es una variable aleatoria. El suceso [X <1]= {(+,+,+),(c,+,+),(+,+,c),(+,c,+)} Ejercicio propuesto: En el lanzamiento de un dado, comprobar que la función X que asigna a cada resultado ω el número aparecido en el dado es una variable aleatoria. (X(ω) = ω) 1.1.1.-TIPOS DE VARIABLE ALEATORIA.

Dentro del conjunto de las variables aleatorias vamos a diferenciar dos tipos con el fin de

trabajar con ellas de una forma más simple sabiendo al grupo al que pertenecen. De esta forma podemos describir de una forma más simple las probabilidades de los sucesos haciendo uso de una nueva función: la función de densidad.

Fundamentalmente existen dos tipos de variables aleatorias las de tipo discreto y las de tipo continuo, aunque podríamos agregar un tercer grupo donde se encuentran aquellas que no pertenecen ni a uno ni a otro, éstas se llaman mixtas y no las estudiaremos aquí.

1.1.1.1 Variable de tipo discreto: Una variable aleatoria X diremos que es de tipo

discreto, o simplemente discreta, si el conjunto de valores que toma esta variable aleatoria (X(Ω)) es un conjunto contable (finito o infinito numerable).

Así cuando el conjunto de los posibles resultados de un experimento sea un conjunto contable la variable aleatoria que tenga asociada será de tipo discreto: El lanzamiento de un dado, la combinación ganadora del sorteo de la primitiva, el número de llamadas telefónica que recibe una centralita, etc.

También es posible que el conjunto de los posibles resultados sea infinito no numerable y la variable aleatoria que tiene asociada sea discreta. Por ejemplo, supongamos que una máquina fabrica tornillos de longitud comprendida entre los 10 y los 20 cm. Si consideramos aceptamos aquellos tornillos de longitud comprendida entre los 10 y los 15 cm. y rechazamos los de tamaño superior podemos definir la variable aleatoria X tal que asocie a los valores comprendidos entre 10 y 15 el valor 1 y a los valores superiores a 15 el valor 0. En este caso el conjunto Ω = [10,20] es infinito no numerable, mientras que el conjunto X(Ω) ={0,1} es finito y por tanto estaremos tratando con una variable aleatoria de tipo discreto.

1.1.1.2- Variables aleatorias de tipo continuo: Existen fenómenos aleatorios que no

se ajustan a este tipo de modelos, pensemos por ejemplo en el tiempo que tarda una persona en ser atendida en una cola. En este caso el conjunto de los posibles resultados es infinito no numerable [0,+∞) pero además la probabilidad de ser atendido antes del instante x se incrementa suavemente según aumenta el valor de x. A pequeños incrementos de x se producen pequeños incrementos de probabilidad. Este es el segundo tipo de variable aleatoria que estudiaremos. Si X es una Variable aleatoria continua, puede tomar cualquier valor de un intervalo continuo o dentro de un campo de variación dado. Ejemplo.- Sea el experimento aleatorio consistente en medir la altura que es capaz de saltar cada miembro de un conjunto de personas. En este experimento, cada miembro del conjunto observado da lugar a un número, por lo que se toma como variable aleatoria el conjunto de las medidas de las alturas que son capaces de saltar las distintas personas. En el supuesto que una persona hubiera saltado 105 cm y otra 106 cm, no existiría ninguna razón para que otra no hubiera saltado un valor intermedio cualquiera entre las dos anteriores, como 105.5 cm. Se trata de una variable aleatoria continua.

1.1.2.-FUNCION DE DISTRIBUCIÓN. Dado un espacio probabilístico (Ω,α,Ρ), y una variable aleatoria X, hemos visto que las probabilidades de los sucesos inducen una probabilidad en el fenómeno aleatorio “valor de la variable aleatoria”. Esto nos permite trasladar el estudio de las probabilidades de los sucesos de Ω al de las probabilidades sobre subconjuntos de números reales. Es decir podremos calcular probabilidades de que la variable aleatoria (v.a.) tome valores en determinados subconjuntos. Por ejemplo P(X <3). Con este objeto introducimos la función de distribución:

Page 4: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 4

Definición: Se define la Función de Distribución de una variable aleatoria X, y la notaremos como FX( ), como una función: FX: ℜ [0,1] Tal que:

∀ x∈ℜ, FX (x) = P(X<x) = P(ω∈Ω / X(ω)<x) Propiedades: De la definición se deduce que:

i) FX (-∞) = 0 y FX (∞) = 1 Esta condición obliga a que la función empiece, a la izquierda tomando el valor de 0, y, a la derecha, acabe tomando antes o después el valor 1.

ii) FX es una función no decreciente. Esto significa que la función de izquierda a derecha nunca desciende, siempre o asciende o se mantiene constante.

iii) FX es una función continua a la derecha. Es decir, que desde cualquier punto hacia la derecha, la función es continua. Si se dan discontinuidades son a la izquierda de algunos puntos.

Ejemplo 2: Se lanza una moneda dos veces. Sea X la variable aleatoria número de caras obtenidas. Veamos cual es su función de distribución: Nuestro espacio muestral es Ω={(c,c), (c,+),(+,c), (+,+)} y las probabilidades de todos los sucesos son iguales (sucesos equiprobables) y valen 1/4. La variable aleatoria X toma los valores X((c,c))=2, X((c,+))=X((+,c))=1, X((+,+))=0. Calculemos la Función de Distribución para diferentes valores al azar: FX (-2) = P(X< -2) = 0 ; FX (0,5) = P(X< 0,5) = P(X=0)=P((+,+))= 1/4 ; FX (1,5) = P(X< 1,5) = P((+,+),(c,+),(+,c))= 1/4+ 1/4 +1/4 = 3/4 FX (2,5) = P(X< 2,5) = P((+,+),(c,+),(+,c),(c,c))= 1/4+ 1/4 +1/4 + 1/4= 1 = P(Ω) Formalmente, hay que calcular la función de distribución para cada número real x igual que la hemos calculado para los valores –2;0,5;1,5; y 2,5. Es fácil ver que en nuestro caso la Función de Distribución vale:

0 si x < 0 FX (x) = 1/4 si 0 < x < 1 3/4 si 1 < x < 2

1 si 2 < x

-2 -1 0 1 2 3 4 50

0,2

0,4

0,6

0,8

1

1,2

Función de Distribución

Observación: La función de distribución de una variable aleatoria es una función que describe como se acumula la probabilidad provocada por la variable a lo largo de la recta. Los tramos con fuertes crecimientos indican zonas donde los valores de la variable aportan gran cantidad de probabilidad, mientras que los tramos planos denotan zonas donde no hay aporte de probabilidad alguno. Los saltos en la función de distribución (ver gráfico del ejemplo 2) muestran aportes significativos de probabilidad en los puntos en los que existe discontinuidad. Así, en el ejemplo 2 se observan aportes significativos de probabilidad en el 0, el 1 y el 2.

Page 5: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 5

Como es observable, la función de distribución tiene su antecedente histórico en la frecuencia relativa acumulada de una variable estadística, que proporcionaba el porcentaje de valores observados menores o iguales a uno dado.

Otras propiedades de la función de distribución: (a) P(x1 < X < x2) = F(x2) – F(x1) (b) P(X = x) = F(x) – F(x-ε) (c) P(x1 < X < x2) = F(x2 -ε)– F(x1) (d) P(x1 < X < x2) = F(x2-ε) – F(x1-ε) (e) P(x1 < X < x2) = F(x2) – F(x1-ε)

Donde F(x-ε)=lim F(x-ε) cuando ε>0 y ε→0. 1.2.- VARIABLE ALEATORIA DE TIPO DISCRETO.

Definición: Dado un espacio probabilístico (Ω, S, Ρ), y una variable aleatoria X definida

en él, decimos que X es una variable aleatoria discreta si el conjunto: X(Ω) = {X(ω), ∀ ω∈Ω,}

es finito ó infinito numerable.

Esto equivale a que una variable aleatoria X es de tipo discreto, si su función de distribución es escalonada, es decir, es constante salvo un conjunto de puntos, a lo sumo infinito numerable.

1.2.1 CARACTERÍSTICAS. Con objeto de elaborar una plan de prevención de riesgos laborales, en una empresa se han recogido los siguientes datos:

Numero de accidentes Numero de días del mes 0 1 2 3 4

10 12 5 2 1

Consideremos la variable aleatoria X, número de accidentes diarios. La siguiente tabla recoge la distribución de frecuencias de dicha variable:

Valor de la variable(xi) Frecuencia Absoluta(ni) Frecuencia Relativa(fi) 0 1 2 3 4

10 12 5 2 1

10/30 12/30 5/30 2/30 1/30

30 Esta tabla contiene toda la información sobre la variable estadística (sobre los datos de un mes). Ahora bien, para resumir ciertos aspectos de la distribución (promedios, dispersión, forma, ...) que clarifiquen la información y permitan su comparación con datos de otros meses o de otras empresas, se calculan una serie de medidas características de posición(media,...), dispersión(varianza,...), ....: Así, la media aritmética sería: X = 0 x 10/30 + 1 x 12/30 + 2 x 5/30 + 3 x 2/30 + 4 x 1/30 = 1,07 La varianza: S2

X=(0–1,07)2x10/30+(1-1,07) 2x12/30+(2-1,07) 2x5/30+(3-1,07)2x2/30+(4-1,07) 2x1/30 = 1,06 Y su desviación típica SX= 1,03 Todas estas medidas tienen su fundamento en las frecuencias observadas para los distintos valores de la variable, es decir, son medidas empíricas.

Page 6: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 6

Ahora bien, estas medidas están obtenidas en base a un comportamiento pasado (observaciones ya realizadas): Después de observar los datos de distintos meses, un estudiante ha decidido asignar a la variable X una distribución de probabilidad que trate de explicar su comportamiento futuro, por ejemplo:

Valor de la variable(xi) P(X= xi) 0 1 2 3 4 5

0,30 0,35 0,20 0,08 0,05 0,02

De cara a resumir los aspectos más importantes de esta distribución, vamos a construir ahora medidas teóricas que nos informen acerca de la distribución. Hablaremos de nuevo de media (esperanza), moda, varianza, etc., siendo su construcción similar a la de las medidas descriptivas. Si la distribución es discreta solo tendremos que cambiar frecuencia por probabilidad, si es continua se producirá un cambio cualitativo, que se traducirá en la mayor parte de los casos en transformar sumas en integrales. 1.2.1.1. FUNCIÓN PUNTUAL DE PROBABILIDAD. Definición: Sea X una variable aleatoria discreta, se define su función puntual de probabilidad fX, como una aplicación,

fX : ℜ → ℜ tal que fX(x) = P(X=x) ∀x ∈ ℜ. Se advierte que si X(Ω) es el conjunto {x1, x2, x3, ...., xn, .... }, la función de probabilidad fX toma los valores: fX(xi)=P(X= xi) para i=1,2,...n,... y fX(x)=0 para el resto de los x≠ xi.

Cuando no se preste a confusión, a fX la notaremos simplemente f. Notación: Se suele notar pi≡P(X= xi) o bien pxi≡P(X= xi). Se denomina distribución de probabilidad a los pares (xi , pi) ∀ i Representación gráfica: Con objeto de mejorar la visualización, la representación de la función de probabilidad se realiza sólo para aquellos puntos en los que toma valores no nulos: fX(x) En variables aleatorias discretas podemos escribir la Función de Distribución como:

∑≤

=xx

ii

pxF )(

Ejemplo 2: Con los datos del ejemplo 2, veamos cual es la función de probabilidad puntual: La variable aleatoria X número de caras obtenidas al lanzar una moneda al aire dos veces puede presentar los valores 0, 1 y 2;

Page 7: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 7

Los valores de la función puntual de probabilidad serán:

fX(0) = P(X=0)=P((+,+))=1/4 fX(1) = P(X=1)=P((c,+),(+,c))=2/4 fX(2) = P(X=2)=P((c,c))=1/4 fX(x) = 0 ∀ x ≠ 0,1,2

Propiedades: Si f es la función de probabilidad de una variable aleatoria discreta X, que toma los valores x1, x2, x3, ...., xn, .... Entonces:

a) 0 < f(x) < 1 ∀x∈ℜ b) Σ f(xi) =Σ pi =1

Recíprocamente toda función g: ℜ→ℜ que se anula salvo en un conjunto finito o infinito numerable de puntos y cumple las dos propiedades anteriores es función de probabilidad de una variable aleatoria discreta. 1.2.1.2.- ESPERANZA MATEMÁTICA Y VARIANZA DE V.A. DISCRETAS. La media es por excelencia la medida de resumen de una variable estadística y bajo ciertas condiciones (poca dispersión) es un buen representante de toda la distribución de frecuencias. Vamos a desarrollar ahora la media referida a una distribución de probabilidades, que es lo que llamamos esperanza matemática de una variable aleatoria (también llamada valor medio, valor esperado ó media esperada). La denominación de esperanza tiene sus raíces históricas en referirse a la ganancia que un jugador esperaba obtener en un juego de azar. Ejemplo 4: Al lanzar un dado, el jugador recibirá tantos miles de pts. Como indique el dado si el número obtenido es impar y pagará a la banca igual número de miles de pesetas que indique el dado si el número obtenido es par. En un número grande de jugadas, n, podemos asignar(intuitivamente/subjetivamente) a cada cara del dado una probabilidad de n/6 de obtener dicha cara. Después de jugar n veces la ganancia aproximada del jugador debe ser: Ganancia después n jugadas=1x 0/6–2x n/6+3 x n/6 – 4 x n/6 + 5 x n/6 – 6 x n/6= - 3n/6 Es decir, ganará 1 mil pesetas en las n/6 jugadas donde debe salir un 1, perderá 2 mil pesetas en las n/6 jugadas donde debe salir un 2, ... Y su ganancia media esperada por jugada será la ganancia total esperada de las n jugadas dividida por el número de jugadas: Ganancia esperada por jugada=(-3n/6)/n=-3/6= -0,5 Luego espera obtener –0,5 miles de pesetas por jugada, es decir, espera perder 500 pesetas por jugada: por tanto el juego no le es favorable. (Propuesto: Determinar la ganancia esperada después de n jugadas si el jugador gana al obtener par y pierde al obtener impar). Si construímos la variable aleatoria X, ganancia del jugador, esta tendrá la siguiente función de probabilidad: X: 1 P(X=1)=1/6 -2 P(X=2)=1/6

3 P(X=3)=1/6 -4 P(X=4)=1/6 5 P(X=5)=1/6 -6 P(X=6)=1/6

La ganancia esperada, esperanza de X, que designaremos por E(X), será la suma de los valores de la variable multiplicados por su probabilidad:

E(X)= 1 1/6 - 2 1/6 + 3 1/6 – 4 1/6 + 5 1/6 – 6 1/6 = -0,5. Así introducida, podemos definir,

Page 8: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 8

Definición: Sea X una variable aleatoria discreta que toma los valores x1, x2, ..., xn,... y cuya función de probabilidad es fX. Se llama esperanza matemática de X y se nota E(X) al número: E(X) = Σ xi fX (xi) = Σ xi P(X=xi) La esperanza matemática E(X), existe siempre que Σ ⏐xi ⏐ fX (xi) < ∞. Ejemplo 5: Una rifa consta de 1000 papeletas, que se venden a 100 pesetas, existiendo un único premio de 5.000 pesetas. Compramos cuatro papeletas ¿Qué ganancia esperamos obtener?: En el caso de que una de nuestras papeletas sea la premiada, la ganancia será: 5.000 – 400 = 4.600. En el caso (más probable) que no nos toque, nuestra ganancia(pérdida) será : -400 La probabilidad de no obtener premio, si llamamos PRi al suceso obtener premio con la papeleta i-ésima es:

P(PR1C ∩PR2

C ∩ PR3 C ∩ PR4

C) Y esta probabilidad es igual a:

P(PR1

C) P(PR2 C/PR1

C)P(PR3 C/PR2

C∩PR1C) P(PR4

C/PR3 ∩CPR2

C∩PR1C)

= 999/1000 998/999 997/998 996/997= 996/1000=0,996 La variable aleatoria X, ganancia obtenida, tendrá la siguiente distribución de probabilidad: X: -400 P(X=-400) = 0,996

4.600 P(X=4.600)= 0,004 La ganancia esperada (Esperanza matemática) será por tanto:

E(X)= -400 x 0,996 + 4600 x 0,004 = -380 Esto se traduce en que si jugasemos indefinidamente a esta rifa comprando cuatro papeletas obtendríamos una pérdida media por jugada de 380 pesetas. NOTACIÓN: MOMENTOS. Definición: Se define el momento no centrado de orden r de una variable aleatoria X y se nota por αr como: αr = E(Xr) Como caso particular, α1 ≡α= E(X1)= E(X)= esperanza matemática de X≡μ Definición: Se define el momento centrado o respecto al origen de orden r de una variable aleatoria X y se nota por μr como: μr = E[(X-E(X))r] Definición: Se define el varianza de una variable aleatoria X, cuya esperanza es μ como: Var(X)≡σ2= E[(X-E(X))2]= E[(X-μ)2] Se observa que la varianza no es más que un caso particular de momentos centrados, esto es, la varianza coincide con el momento centrado de orden 2:

μ2 = E[(X-E(X))2]= Var(X) )≡σ2 Si la variable es discreta, la varianza vale: Var(X)≡σ2=Σ (xi -μ)2 P(X=xi)

Page 9: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 9

Una expresión alternativa para el cálculo de la varianza se obtiene desarrollando el cuadrado de la expresión anterior:

Var(X)≡σ2=Σ xi 2 P(X=xi)- μ2

1.2.2.- DISTRIBUCIONES DISCRETAS. Muchas variables aleatorias asociadas con experimentos estadísticos, tienen propiedades parecidas y pueden describirse básicamente con la misma distribución de probabilidad (la distribución de probabilidad viene determinada por los pares de valores (xi, pi), donde xi son los distintos valores que toma la variable aleatoria y pi las probabilidades de que la variable aleatoria tome el valor xi). 1.2.2.1.- DISTRIBUCIÓN UNIFORME DISCRETA. Consideremos el lanzamiento de una moneda al aire( cuyos resultados posibles son cara y cruz) y la variable aleatoria asociada X que asigna al resultado cara un 1 y al resultado cruz un 0(número de caras obtenidas). La probabilidad de que la variable X tome el valor 1 es 1/2 y la probabilidad de que la variable tome el valor 0 también es 1/2, ya que dichas probabilidades son las probabilidades de los sucesos sacar cara y sacar cruz que en principio son dos sucesos son equiprobables, con probabilidades iguales a 1/2). Esta misma situación se nos presenta en el lanzamiento de un dado no trucado con la variable aleatoria que asigna a cada resultado en el lanzamiento del dado el valor obtenido. Los resultados posibles 1,2,3,4,5,6 tendrán asociados mediante la variable aleatoria asociada X así definida unos valores X(1)=1, X(2)=2, X(3)=3, X(4)=4, X(5)=5 y X(6)=6. La probabilidad de que la variable X tome el valor n(con n=1,2,...,6) es la probabilidad del suceso sacar n, y si el dado no está trucado estas probabilidades son idénticas e iguales a 1/6. Definición: Pues bien, en general si una variable aleatoria discreta X toma n valores distintos x1, x2,... xn, con la misma probabilidad, es decir P(X= x1) = P(X= x2) =... P(X= xn) = k, entonces se dice que la variable X sigue una distribución uniforme discreta de parámetro n. El valor de la constante k se calcula fácilmente, ya que la suma de todas las probabilidades debe ser igual a la unidad, es decir: n n

Σ P(X= xi) = 1 ⇒ Σ k =1 ⇒ n k = 1 ⇒ k =1/n i=1 i=1 (Esta circunstancia es evidente en los dos ejemplos de introducción ya que en el caso de la moneda n=2 y k=1/n=1/2 y en el caso del dado n=6 y k=1/n=1/6.) Característica de las distribuciones uniformes discretas: Función de probabilidad(fX): La función de probabilidad de una distribución uniforme discreta queda perfectamente determinada como:

fX(xi)= P(X= xi) = k =1/n ∀ i=1,2,…,n Función de Distribución(FX): La función de distribución en una variable aleatoria discreta, puede obtenerse por acumulación de la función de probabilidad(recordemos que en el caso de variables aleatorias discretas F(x)=P(X<x)= ΣP(X=xi)):xi<x Por tanto la Función de distribución resultará ser:

Page 10: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 10

0 x<x1 1/n x1<x< x2 2/n x2<x< x3

. F(x)= .

. k/n xk<x< xk+1

.

. (n-1)/n xn-1<x< xn

1=n/n xn<x Esta función es escalonada, y todos los saltos son de la misma cuantía (1/n). Esperanza matemática(E(X)):

E(X) = Σ xi P(X=xi) = Σ xi k =Σ xi (1/n) = (1/n) Σ xi Varianza(Var(X)≡σ2): La varianza la podemos obtener como Var(X)≡σ2= E(X2) – [E(X)] 2, donde E(X) ya la hemos obtenido en el apartado anterior, por tanto calculemos E(X2);

E(X2)= Σ xi2 P(X=xi) = Σ xi

2 k = Σ xi2 (1/n) = (1/n) Σ xi

2 Por tanto la varianza valdrá;

Var(X)≡σ2= E(X2) – [E(X)] 2= (1/n) Σ xi2 - [ (1/n) Σ xi]2

Caso particular 1: Cuando n=1, es decir cuando la variable asociada toma un único valor, x1, la distribución recibe el nombre de distribución uniforme degenerada y la variable asociada, variable con distribución uniforme degenerada: fX(x1)= P(X= x1) = k =1/1=1 F(x) = 0 si x < x1 y F(x)=1 si x> x1 E(X)= x1 ; σ2= xi

2 - xi2 = 0

Caso particular 2: Cuando xi = i (caso del dado), es decir cuando la variable asociada toma los valores x1 = 1, x2 = 2, ..., xn = n: fX(xi)= P(X= xi) = k =1/n E(X)= Σ xi P(X=xi) = Σ xi k =Σ xi (1/n) = (1/n) Σ xi = (1/n) (n+1)/2 n = (n+1)/2 1.2.2.2.- DISTRIBUCIÓN DE BERNOUILLI. Con frecuencia en experimentos aleatorios, nos interesa estudiar no ya el resultado concreto del experimento, sino solamente si ha ocurrido o no un cierto suceso. Por ejemplo, en una rifa como la del ejemplo 5, no nos interesa tanto el resultado de la rifa (número premiado) como el suceso obtener papeleta premiada (comprábamos cuatro papeletas). En este tipo de experimentos, se denomina éxito al suceso en estudio (evidentemente obtener papeleta premiada será un éxito) y fracaso al suceso contrario, que en nuestro caso será no obtener papeleta premiada. A este tipo de experimentos se le denomina experimento o prueba de Bernouilli. Llamemos éxito al suceso A (en nuestro ejemplo obtener papeleta premiada) y fracaso a su contrario (complementario), Ac. Asociamos a dicho experimento una variable aleatoria X

Page 11: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 11

definida como el número de éxitos al realizar el experimento, es decir la variable X tomará los valores: 1 si ocurre A 0 si ocurre Ac Si llamamos P(A)= p y P(Ac)= 1-p =q, la distribución de probabilidad de la variable X, puede escribirse como: X: 0 P(X=0)= 1-p= q

1 P(X=1)= p Diremos que la variable X tiene una distribución de Bernouilli(b(p)) de parámetro p, donde p es la probabilidad de éxito. Características de la Distribución de Bernouilli de parámetro p, b(p). Función de Probabilidad fX: Su función de probabilidad puede expresarse de manera compacta:

fX(x)= P(X= x) = px (1-p)1-x con x = 0, 1 Se observa que X solamente toma los valores 1(en caso de éxito) o 0(en caso de fracaso): Si X=0 fX(0)= P(X= 0) = p0 (1-p)1-0 = (1-p) = q Si X=1 fX(1)= P(X= 1) = p1 (1-p)1-1 = p En nuestro ejemplo 5(rifa) la probabilidad de que nos toque es p=0,004 y la de que no nos toque q = 0,996 =1- p= 1 – 0,004. Función de distribución FX : la función de distribución queda determinada : 0 si x < 0 FX(x)=P(X<x)= 1-p si 0 < x < 1

1 si x > 1 Esperanza Matemática: E(X) = Σ xi P(X=xi) = 0 (1-p) + 1 p = p Varianza :Var(X)≡σ2= E(X2) – [E(X)] 2= 02 (1-p) + 12 p - p2 = p – p2= p(1-p)= p q Un ejemplo sencillo de variable de Bernouilli es la que asigna el número de caras obtenidas al lanzar una moneda al aire una vez. El parámetro p, sería en este caso la probabilidad de obtener cara con dicha moneda. 1.2.2.3.- DISTRIBUCIÓN BINOMIAL. Supongamos, que se repite n veces el mismo experimento de Bernouilli y que en todos ellos la probabilidad de éxito, p, es la misma. Diremos entonces que hemos realizado n tiradas de Bernouilli de parámetro p. Llamemos X a la variable que asocia el numero de éxitos obtenidos en las n tiradas. Pues bien, a la distribución que sigue dicha variable se le denomina Distribución Binomial de parámetros n y p, B(n,p). El parámetro n indica el número de tiradas (que será un número entero positivo) y el parámetro p, es la probabilidad de éxito en cada prueba( 0<p<1). La variable asociada al experimento, X, así definida podrá tomar los valores 0,1,2,..,n (número de éxitos posibles en n tiradas). La probabilidad de obtener k éxitos, es la probabilidad P((X=k). Uno de los sucesos con el que obtenemos k éxitos es aquel en que obtenemos k éxitos en las k primeras pruebas y fracaso en las n-k pruebas restantes: k n-k

AA.........AAc...................Ac La probabilidad de este suceso (suponemos que las pruebas son independientes) es:

Page 12: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 12

k n-k k n-k P(AA.........AAc...................Ac )= P(A)........ P(A) P(Ac)…………..P(Ac) = pk (1-p)n-k

Ahora bien, este es solamente uno de los sucesos en los que aparecerán k éxitos y n-k fracasos, es decir dicha circunstancia se producirá en cualquier reordenación de la secuencia anterior. Deberemos preguntarnos cuantas reordenaciones posibles existen: es decir cuantos subconjuntos de k elementos (donde no importa el orden) pueden formarse con n elementos. Pues bien a ese número de reordenaciones se le llama Combinaciones de m elementos tomados de k en k y vale:

C m , k = ⎟⎠⎞

⎜⎝⎛m

k =

)!(!!

kmkm−

En la lotería primitiva tendremos C 49 , 6 = 13.983.816. Todas las posibles reordenaciones de los n elementos tomados de k en k son sucesos con probabilidades iguales a pk (1-p)n-k

Por tanto la función de probabilidad de una distribución binomial de parámetros n y p es: Función de Probabilidad fX:

fX(k)= P(X= k) =( ) pk (1-p)n-k para k=0, 1,2,..., n

(ésto es así, ya que dicha probabilidad es la suma de las probabilidades de todos los sucesos en que se producen k éxitos, siendo dichas probabilidades iguales y existiendo Cn , k sucesos). Ejemplo 6: Un jugador de baloncesto tiene un porcentaje (histórico) de aciertos en tiros libres del 85%. Si lanza 10 libres. ¿ Cual es la probabilidad de que enceste al menos 3?: Solución: Cada lanzamiento es una prueba de Bernouilli. El éxito es el suceso encestar y la probabilidad de éxito es de 0,85. Lanzar 10 veces a canasta es repetir 10 pruebas de Bernouilli, es decir la variable X que asocia a los 10 lanzamientos el número de canastas tomará los valores 0,1,2,...,10 y seguirá una distribución Binomial de parámetros n=10 y p=0,85. La probabilidad de conseguir más de tres canastas será: P(X>3)= P(X=3)+P(X=4)+....+P(X=10)= ΣP(X= k) con k>3

Y kk

kkXP −⎟

⎠⎞

⎜⎝⎛== 10

1015,085,0)(

P(X>3)= 1 - P(X<3) = 1 – P(X<2)= 1- FX(2) Función de distribución FX : la función de distribución queda determinada : FX(x)=P(X<x) (se obtiene en tablas) Esperanza Matemática:

E(X) = np

Varianza : Var(X)≡σ2= n p q

(la variable aleatoria es la suma de n variables aleatorias independientes de Bernouilli de parámetro p)

Page 13: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 13

1.2.2.4.- DISTRIBUCIÓN DE POISSON (o de los sucesos raros). La Distribución de Poisson se llama así en honor a Simeón Dennis Poisson (1781-1840), francés que desarrolló esta distribución basándose en estudios efectuados en la última parte de su vida.

La distribución de Poisson se corresponde con la extensión de una distribución Binomial

La distribución de Poisson se corresponde con una variable aleatoria discreta que indica el número de veces que aparece un determinado suceso A en un periodo de tiempo dado. El fenómeno aleatorio debe verificar las dos propiedades siguientes:

i) Es un proceso sin memoria, esto es el hecho de que el evento aparezca con anterioridad no afecta a que pueda o no producirse en instantes posteriores.

ii) El proceso es estable, es decir, a lo largo del tiempo el número medio de veces que se ha producido el suceso es constante por unidad de tiempo.

Algunos fenómenos aleatorios cuyo comportamiento probabilístico se ajusta a esta distribución son, por citar los más típicos: el número de llamadas que llegan a una central telefónica en una hora, el número de coches que entran a repostar en una gasolinera (en un intervalo de tiempo), el número de personas que son atendidas en una ventanilla durante un día, el número de personas que llegan a la cola de una caja en un supermercado.

De forma general esta distribución simula aquellos experimentos en los que se genere un proceso de cola.

A diferencia de las distribuciones estudiadas en apartados anteriores, una variable aleatoria de Poisson puede tomar una cantidad infinita de valores (aunque en cantidad numerable).

Definición: Una variable aleatoria se dice que tiene una distribución de Poisson de parámetro λ, (λ>0) y lo representaremos por X~P(λ) si su función puntual de probabilidad. es de la forma:

!xe)xX(P

xx λ== − para x = 0, 1, 2,...

El parámetro λ de los ejemplos anteriores representa el promedio de ocurrencias del suceso por el que estamos interesados (que llegue una llamada telefónica, que llegue un coche a la gasolinera, etc)

La siguiente figura muestra la forma en que se distribuye la probabilidad en función de distintos valores de λ.

Page 14: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 14

0

0,1

0,2

0,3

0,4

0,5

Variable

Prob

abilid

ad

0 4 8 12 16 20

l=0,8

0

0,1

0,2

0,3

0,4

0,5

Variable

Prob

abilid

ad

0 4 8 12 16 20

l=2,1

0

0,1

0,2

0,3

0,4

0,5

Variable

Prob

abilid

ad

0 4 8 12 16 20

l=8,0

0

0,1

0,2

0,3

0,4

0,5

VariablePr

obab

ilidad

0 4 8 12 16 20

l=12

Características de los procesos que producen una distribución de la probabilidad de Poisson. El número de vehículos que pasan por una caseta de cobro en las horas de mayor tráfico sirve como ejemplo para mostrar las características de una distribución de probabilidad de Poisson. El promedio (media) de llegadas de vehículos por hora de gran tráfico puede estimarse a partir de los datos anteriores del tráfico. Si dividimos las horas de gran tráfico en periodos (intervalos) de un segundo cada uno, encontraremos que los siguientes enunciados son verdaderos: a) La probabilidad de que exactamente un vehículo llegue por segundo a una caseta individual es un número muy pequeño y es constante para que cada intervalo de un segundo. b) La probabilidad de que dos o más vehículos lleguen en un intervalo de un segundo es tan reducida que podemos asignarle un valor cero. c) El número de vehículos que llegan en determinado intervalo de un segundo es independiente del momento en que el intervalo de un segundo ocurre durante la hora de gran tráfico. d) El número de llegadas en cualquier intervalo de un segundo no depende del número de llegadas de cualquier otro intervalo de un segundo. Ahora bien, podemos generalizar partiendo de las cuatro condiciones que hemos descrito en este ejemplo, si estas condiciones se cumplen nos apoyaremos en una distribución de probabilidad de Poisson para describirlos.

La variable aleatoria de Poisson se caracteriza por el hecho de que su valor medio y su varianza son iguales y además estos valores coinciden con el parámetro λ de la distribución, así, si X~P(λ):

1) E[X] = λ 2) Var(X) = λ.

Page 15: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 15

Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir, obteniéndose como la distribución límite de una sucesión de variable binomiales,

, donde , y (por tanto ).

En general utilizaremos la distribución de Poisson como aproximación de experimentos binomiales donde el número de pruebas es muy alto, pero la probabilidad de éxito muy baja. A veces se suele utilizar como criterio de aproximación:

Ejemplo Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000. Calcular la probabilidad de que en una ciudad con 500.000 habitantes haya más de 3 personas con dicha enfermedad. Calcular el número esperado de habitantes que la padecen.

Solución: Si consideramos la v.a. X que contabiliza el número de personas que padecen la enfermedad, es claro que sigue un modelo binomial, pero que puede ser muy bien aproximado por un modelo de Poisson, de modo que

Así el número esperado de personas que padecen la enfermedad es . Como

, existe una gran dispersión, y no sería extraño encontrar que en realidad hay muchas más personas o menos que están enfermas. La probabilidad de que haya más de tres personas enfermas es:

Page 16: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 16

1.3.- VARIABLES ALEATORIAS DE TIPO CONTINUO. 1.3.1.- CARACTERÍSTICAS.

Como hemos visto en el apartado anterior en una variable aleatoria discreta la

probabilidad de distribuye en puntos aislados a lo largo de la recta real. Existen fenómenos

aleatorios que no se ajustan a este tipo de modelos, pensemos por ejemplo en el tiempo que

tarda una persona en ser atendida en una cola. En este caso el conjunto de los posibles

resultados es infinito no numerable [0,+∞) pero además la probabilidad de ser atendido antes

del instante x se incrementa suavemente según aumenta el valor de x. A pequeños

incrementos de x se producen pequeños incrementos de probabilidad. Es decir la función de

distribución va aumentando suavemente según aumentamos el valor de x. Este es el segundo

tipo de variable aleatoria que estudiaremos. La Función de distribución de una variable aleatoria

continua se define igual que en el caso discreto:

Definición: Se define la Función de Distribución de una variable aleatoria continua X, y la notaremos como FX( ), como una función: FX: ℜ [0,1] Tal que:

∀ x∈ℜ, FX (x) = P(X<x) = P(ω∈Ω / X(ω)<x)

Definición 6.- Una variable aleatoria X diremos que es de tipo continuo, o simplemente

continua, si su función de distribución F es tal que

i) F es una función siempre continua.

ii) F es derivable (con derivada continua salvo, a lo sumo, en un número finito de

puntos).

1.3.1.1.- FUNCIÓN DE DENSIDAD.

Definición 7.- Si X es una variable aleatoria de tipo continuo con función de

distribución F. La función de densidad (f.d.) de la variable aleatoria X es una aplicación real de

variable real tal que f(x) = F'(x).

Teorema de caracterización de las funciones de densidad.

Sea f una función real de variable real continua salvo, a lo sumo, en un número finito de puntos y tal que:

i) ℜ∈∀≥ x 0)x(f

ii) ∫+∞

∞−= 1dx)x(f

Entonces f es la función de densidad de una variable aleatoria continua.

Page 17: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 17

Teorema 5.- Sea X una variable aleatoria de tipo continuo y F y f sus funciones de

distribución y de densidad respectivamente, entonces F puede obtenerse de f y viceversa.

i) Supuesto conocemos F

f(x) = F'(x)

ii) Supuesto conocida f

∫∞−

=x

du)u(f)x(F

Al igual que en el caso anterior en general la función que conoceremos es la función de

densidad y a través de ella podemos calcular las probabilidades que deseemos.

Teorema 6.- P(a < X < b) = dx f(x) b

a∫

Este resultado nos ayudará a dar una interpretación geométrica de probabilidad. Así

podemos afirmar que el área que hay bajo la función de densidad de una variable aleatoria

continua es la unidad y que la probabilidad de que una variable oscile entre dos puntos a y b se

corresponde gráficamente con el área que hay bajo la función de densidad entre los puntos a y b.

Por último veremos una propiedad que cumple la variable aleatoria continua que hasta

cierto punto es sorprendente.

Teorema 8.- Si X es una variable aleatoria continua y x es un número real cualquiera

P(X=x) = 0.

Dem: Como la función de distribución es continua la probabilidad de que la variable tome

exactamente un valor determinado es cero.

Por tanto en variable aleatoria continua no tiene sentido hablar de que la variable aleatoria

tome exactamente un valor sino de que tome valores comprendidos entre dos puntos.

1.3.1.2.- ESPERANZA MATEMÁTICA Y VARIANZA DE UNA V.A. CONTINUA. En el caso de variables continuas, la definición de esperanza matemática se rescribe de la siguiente manera: Definición: Sea X una variable aleatoria continua, con función de densidad fX. Se llama esperanza matemática de la variable aleatoria X al número:

∫+∞

∞−

= dxxxfXE )()(

Page 18: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 18

Propiedades:

i) La esperanza de una constante es la propia constante: Si la variable aleatoria X toma un único valor k (X(w)=k ∀w) entonces E(X) = k.

ii) La esperanza de la variable a X + b con a y b constantes es igual a: E(a X + b )= a E(X) + b.

iii) Si una variable aleatoria, tiene función de probabilidad o de densidad, simétrica respecto de un valor a, la esperanza, si existe, es dicho valor a.

1.3.4.- VARIANZA. Definición: Se define el varianza de una variable aleatoria X, cuya esperanza es μ como: Var(X)≡σ2= E[(X-E(X))2]= E[(X-μ)2] Se observa que la varianza no es más que un caso particular de momentos centrados, esto es, la varianza coincide con el momento centrado de orden 2:

μ2 = E[(X-E(X))2]= Var(X) )≡σ2

Para una variable aleatoria continua: Var(X)≡σ2= ∫+∞

∞−− dxxfx )()( 2μ

Alternativamente se puede calcular la varianza de una v.a continua como:

Var(X)≡σ2= 22 )( μ−∫+∞

∞−dxxfx

Propiedades de la varianza:

i) Var(X)≡σ2= E[(X-E(X))2]= E(X2) – [E(X) ]2 = α2−μ2

ii) La varianza vale 0 si y solo si X es una constante. iii) Si b es una constante, entonces Var(X + b)= Var(X) iv) Si a es una constante, entonces Var(a X)= a2 Var(X)

TIPIFICACION DE UNA VARIABLE. (Válido para variables discretas y continuas) Definición: Sea X una variable aleatoria de media μ y varianza σ2. Se dice que la variable Z es la variable X tipificada si Z = X -μ Siendo σ la desviación tipica de X(raiz cuadrada positiva de la varianza). Propiedades:

i) La variable tipificada tiene media 0: E(Z)=0 ii) La variable tipificada tiene varianza 1: Var(Z)= 1

Ejercicio1: Los alumnos de la facultad suscriben un contrato con la cantina del centro para la celebración de una fiesta pro-viaje de fin de carrera. En dicho contrato se estipula que los alumnos recibirán una cantidad fija de 100.000 pesetas, más 50 pesetas por cada copa servida. El número de copas que se servirán puede representarse por una variable aleatoria de media 5.000 y desviación típica 500. Calcular la media y la desviación típica de los ingresos de los alumnos por la fiesta.

Page 19: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 19

Solución: Sea X la variable aleatoria número de copas que se servirán. E(X)= 5.000 y σ(X)= 500 Llamemos I a la variable aleatoria ingresos de los alumnos. Se tiene que:

I = 100.000 + 50 X

La media de I ≡ esperanza de I = E(I)=E(100.000 + 50 X). De donde E(I) = 100.000 + 50 E(X)= 100.000 + 50 5000 =350.000 La varianza de I ≡ Var(I) = σ2(I)= σ2 (100.000 + 50 X). De donde σ2(I)= σ2 (100.000 + 50 X)= 502 σ2 (X) Y por tanto σ(I)= 50 σ (X)= 50 500=25.000 Ejercicio 2: El comportamiento de una variable aleatoria, viene dado por la función de densidad; k(1-x) si o < x < 1 f(x)= 0 en cualquier otro caso Determinar: A) Función de distribución B) Esperanza y varianza C) P(X> -2), P(0<X<0,5), P(0,5<X<1,5). Solución:

En primer lugar debemos determinar el valor de k. Para ello, aplicamos que

∫ f(x) dx = ∫ k(1-x) dx =1 ⇒ [kx-kx/2]1= k/2 =1 ⇒ k = 2 A) ∀x ∈(0,1) F(x) = ∫ 2(1-x) dx = 2(x – x2/2) 0 si x < 0

Y por tanto F(x) = 2(x – x2/2) si 0 < x < 1 1 si x > 1

B) E(X) = ∫ x 2(1-x) dx = 0,33

E(X2) = ∫ x2 2(1-x) dx = 0,167 σ2(X)= 0,167 – 0,332 = 0,0581 ⇒ σ(X)= 0,241

C) P(X> -2)= 1 – P(X< -2) = 1 – F(-2)= 1 P(0<X<0,5) = F(0,5) – F(0) = 0,75 P(0,5<X<1,5) = F(1,5) – F(0,5) = 1 – 0,75 = 0,25

Page 20: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 20

1.3.2.- DISTRIBUCIONES CONTINUAS ESPECIALES.

Este apartado está enteramente dedicado al estudio de las distribuciones continuas más

relevantes. Se trata de distribuciones tipo que proporcionan modelos de asignación de

probabilidades a diferentes fenómenos aleatorios continuos. La forma de asignar probabilidades

vendrá determinada por la función de densidad de la variable aleatoria.

Cada tipo de distribución tiene asociada una familia de funciones de densidad que depende

de una o varias constantes que llamaremos parámetros. Dependiendo de los distintos valores que

asociemos a estas constantes la función de densidad adoptará diferentes siluetas que se

corresponderán con las diferentes formas de asignación de probabilidades.

De esta manera una vez que se asocie a un determinado experimento aleatorio un modelo

de probabilidad deberemos buscar el parámetro o parámetros que mejor definan el fenómeno que

estemos estudiando. La asignación de valores a estos parámetros vendrá determinada lógicamente

en función de la información que se disponga, esto es de las observaciones muestrales, y será

objeto de capítulos posteriores (inferencia paramétrica).

De entre las variables aleatorias que vamos a presentar en este tema debemos de

destacar desde un principio a la distribución Normal, que desde hace más de dos siglos se ha

convertido en la pieza angular de la estadística. La importancia de esta distribución y su

repercusión en el campo de la inferencia estadística hace necesario que dediquemos también un

apartado especial a tres variables que surgen teóricamente cuando se desarrolla esta parte de la

estadística y que son funciones de distribuciones de probabilidad normales.

La forma de desarrollar cada uno de estos apartados es idéntica a la que mantuvimos en el

apartado anterior. Presentaremos la función de densidad, sus característica más importantes y

aquellas propiedades que debamos destacar de cada una de las variables aleatorias. En la medida

de lo posible se planteará un pequeño problema a modo de ejemplo.

1.3.2.1.- La distribución Uniforme.

Una variable aleatoria X diremos que sigue una distribución uniforme continua si su función

de densidad es constante en un intervalo finito (a,b) y nula fuera de él.

Por tanto la distribución uniforme, tendrá como función de densidad:

f(x) = 1/(b-a) si a<x<b y f(x)=0 en otro caso

Esta distribución depende de dos parámetros a ,b y la designaremos como U(a,b)

La función de densidad de esta v.a. tiene la siguiente representación gráfica:

Page 21: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 21

La distribución uniforme, también llamada rectangular por el aspecto de su función de

densidad, fue utilizada por primera vez por T.Bayes en 1763 y por P.S. De Laplace en 1.812.

Según la definición de esta variable, cualquier elección de números reales al azar y sin

preferencias en un intervalo de longitud finita, es una variable aleatoria uniforme.

Con frecuencia esta distribución se asocia al comportamiento aleatorio de una magnitud de

la que sólo se conoce su campo de variación (un intervalo finito).

Cometiendo un pequeño abuso en el lenguaje, podemos decir que en una distribución

uniforme la probabilidad de todos los puntos es la misma (hay que observar que en principio esa

afirmación es cierta para cualquier v.a. continua, ya que para ellas la probabilidad de cualquier

punto es nula. Sería más preciso decir que la densidad de todos los puntos es constante en [a,b]).

Ejemplo:

El tiempo que una persona tarda en llegar de su casa al trabajo se distribuye

uniformemente entre 10 y 20 minutos. Calcular la probabilidad de que tarde más de 18 minutos y

de que tarde menos de 14 minutos.

Características:

Esperanza matemática: E[X] = (a+b)/2

Varianza: Var(X) = (b-a)2/12

a b

1/(b-a)

f(x)DISTRIBUCIÓN UNIFORME U(a,b)

Page 22: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.

García Córdoba Dpto. Métodos Cuantitativos e Informáticos 22

1.3.2.2.- La distribución Normal o de Gauss.-

Diremos que una variable aleatoria se ajusta a una ley normal o que sigue una distribución

de Gauss de parámetros μ y σ, si toma todos los valores reales con función de densidad:

e 2

1 = f(x) ) - x ( 21 - 2

2 μσ

σπ −∞ < x < ∞

Esta distribución continua, en su versión más simple, fue introducida por primera vez por

De Moivre en 1.733 como aproximación de la distribución binomial. Posteriormente, Laplace y

Gauss la hallaron empíricamente estudiando la distribución de los errores de medición, y tras sus

trabajos se convirtió en la distribución más utilizada en las distintas aplicaciones (de ahí su

nombre).

Por ejemplo, supongamos que una máquina corta piezas de una determinada longitud,

lógicamente las piezas cortadas tienen la misma longitud solamente en promedio, ya que la

mayoría presentan errores, son un poco más grandes o un poco más pequeñas. Se observó que

los errores en este tipo de situaciones presentaban una distribución simétrica, que originalmente

recibió el nombre de curva normal de errores.

El estudio por parte de K. Gauss (1.777-1.855) de la Teoría de los errores le lleva al

estudio de la distribución de probabilidad de errores, con lo que llega a la distribución Normal,

hasta entonces obtenida como aproximación de otras distribuciones. Junto con el método de

mínimos cuadrados, el estudio de la distribución normal fue la principal aportación de Gauss al

Cálculo de Probabilidades.

Page 23: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD

García Córdoba 23

El calificativo de normal se debe también a que esta distribución es típica de muchos

experimentos y observaciones, en especial de aquellos fenómenos de la naturaleza (longitud,

altura, grosor, peso, aptitudes o capacidades humanas) donde intervienen muchas causas,

cada una de las cuales produce un pequeño efecto, y que pueden suponerse independientes

La gráfica de la distribución Normal es la siguiente dependiendo de los valores que

asignemos a sus parámetros:

DISTRIBUCIÓN NORMALf(x)

x

El campo de variación de la distribución Normal es toda la recta real (es decir, la

variable toma todos los valores posibles, ya sean negativos o positivos), de tal modo que la

mayor parte de la masa de probabilidad (área comprendida entre la curva y el eje de

abcisas) se encuentra concentrado alrededor de la media, y las ramas de la curva se

extienden asintóticamente a los ejes, y por tanto, cualquier valor "muy alejado" de la media

es posible (aunque poco probable).

Observaciones sobre la curva Normal:

A) Los parámetros μ y σ determinan la forma de la campana de Gauss (ver gráfico),

el parámetro μ, que coincide con el valor máximo de la función, desplaza la función hacia la

derecha o izquierda del eje de abcisas.

Por otro lado el parámetro σ da forma a la función haciendo ésta más o menos

apuntada: Para pequeños valores de σ la curva se hace más puntiaguda, concentrando

entorno a la media la mayor parte de la probabilidad, por el contrario, para valores de σ

elevados la función se abre concentrando menos la probabilidad entorno a la media.

B) La función es simétrica respecto del parámetro μ, es decir:

f(μ+x) = f(μ-x)

Por tanto la mediana de esta distribución es x = μ.

C) La curva Normal tiene un comportamiento asintótico conforme nos alejamos de su

valor máximo, sin tomar nunca el valor cero.

D) La función tiene dos puntos de inflexión en x = μ+σ y en x = μ-σ.

E) La función de densidad de la distribución Normal alcanza su valor máximo cuando

x = μ y por tanto la moda es x = μ .

Page 24: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD

García Córdoba 24

Características:

Esperanza matemática: E[ξ] = μ

Varianza: Var(ξ) = σ2

Propiedades:

La complejidad de la función de densidad de esta variable aleatoria hace inoperativo

el cálculo de probabilidades asociados a esta distribución a través del cálculo integral. Esta es

quizás el principal inconveniente de la distribución Normal,

La función e x - 2

no posee primitiva conocida.

Desde el punto de vista práctico las consecuencias son importantes, aunque esto no

impide que podamos trabajar fácilmente con esta distribución.

Afortunadamente para un valor fijo x, F(x)=P(X≤x) pueda ser calculado. De hecho

puede ser calculado con tanta precisión como se quiera, pero para esto se necesita usar

técnicas de cálculo numérico y ordenadores. Para la utilizar en problemas prácticos la función

de distribución F, existen ciertas tablas donde se ofrecen (con varios decimales de precisión)

los valores F(x) para una serie limitada de valores x dados.

Es decir, si tenemos una distribución N(5,2) y deseamos calcular la probabilidad de

que la variable esté comprendida entre 2 y 8 deberíamos de calcular:

P(2<ξ<8) = dx e 21 ) - x (

21 -

8

2

22 μ

σσπ∫

Con el fin de solucionar este problema, la integral ha sido tabulada (es decir se

calculan sus valores mediante procedimientos numéricos aproximados), proporcionando un

método rápido y sencillo de obtener las diferentes probabilidades asociadas a la distribución.

Propiedades:

El siguiente resultado proporciona un método para el cálculo de estas probabilidades:

Propiedad 1.- Si ξ es una v.a. con distribución N(μ,σ), entonces Y=aξ+b es una

distribución Normal de parámetros N(aμ+b,|a|σ).

Dem: la podemos hacer mediante la función de distribución.

Este resultado lo podemos aplicar a cualquier distribución Normal con el fin de

transformarla en una distribución Normal N(0,1), concretamente:

Page 25: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD

García Córdoba 25

Propiedad 2.- Sea ξ un v.a. con distribución N(μ,σ), Entonces la v.a. Y=(ξ-μ)/σ es

una v.a. Normal de parámetros 0 y 1, N(0,1).

Dem: Como consecuencia del anterior resultado más general.

El proceso mediante el cual se transforma una v.a. Normal de parámetros

cualesquiera en una Normal N(0,1) se llama tipificar la variable y a la N(0,1) se le llama

distribución Normal tipificada o estándar.

De la distribución Normal tipificada tenemos tabulada su función de distribución, y a

partir de ella podemos obtener las probabilidades de una distribución Normal cualquiera. Así,

cuando debamos calcular una probabilidad asociada a la distribución Normal deberemos

primero realizar el cambio de variable correspondiente con el fin de tipificar la variable para

poder hacer uso de estas tablas.

Ejemplo:

ξ=N(5,2) calcular P(2<ξ<8)

F(x)

x0

En la tabla de la función de distribución de la N(0,1) no aparecen valores negativos

de "x" ya que pueden obtenerse las probabilidades correspondientes haciendo uso de la

simetría de la Distribución.

Propiedad 3.- Si XιN(0,1) resulta: a) P(X < x) = 1− P(X > x) (por suceso complementario) b) P(X < −x)=1−P(X < x) (por la simetría de la distribución)

Al igual que en otras ocasiones vamos a calcular la distribución de la suma de dos v.a. Normales independientes

Propiedad 4.- Sea Xi una distribución Normal de parámetros N(μi;σi) con i = 1, 2 independientes. Entonces

a) X1 + X2 ι N(μ1 + μ2; + 22

21 σσ )

b) X1 + X2 ι N(μ1 - μ2; + 22

21 σσ )

Page 26: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD

García Córdoba 26

Aproximación de la distribución Binomial a la Normal.

Para terminar con el estudio de esta distribución y con el fin de resaltar su importancia y a la misma vez constatar las razones históricas por las que surgió, veamos como la distribución Binomial se aproxima a una Normal.

Daremos el resultado que no demostraremos aunque sí lo veremos gráficamente.

Se puede demostrar (teorema central del límite) que una v.a. discreta con distribución Binomial, se puede aproximar mediante una distribución normal si n es suficientemente grande y p no está muy próximo a 0 ni a 1.

Como el valor esperado y la varianza de X son respectivamente np y npq , la aproximación consiste en decir que:

B(n,p) ≈ N(np,npq)

El convenio que se suele utilizar para poder realizar esta aproximación es: n > 30 np > 4 nq > 4 también npq > 3

aunque en realidad esto no da resultados muy precisos a menos que realmente n sea un valor muy grande o p, q próximos a 1/2.

1.3.2.3.- Distribuciones relacionadas con la Normal.

Las distribuciones que vamos a estudiar en este apartado no son distribuciones construidas con el objeto de modelar probabilísticamente ciertos procesos naturales como las que hemos presentado anteriormente.

Las distribuciones relacionadas con la distribución Normal, son variables aleatorias que surgen teóricamente como resultado del proceso de inferencia estadística.

Uno de los objetivos que persigue la Estadística es el de poder predecir (inferenciar) los parámetros (inferencia paramétrica) que determinan las distribuciones que modelan los experimentos aleatorios.

1.3.2.3.1.- La distribución χ2 (Chi-cuadrado) de Pearson.

Esta distribución surge cuando se desea conocer la distribución de la suma de los cuadrados de variables independientes e igualmente distribuidas con distribución Normal.

Definición.- Sean X1, X2, ... , Xn , n v.a. independientes e igualmente distribuidas con N(0,1). Entonces X1

2 + X22 + . . . + Xn

2 sigue una distribución χ2 con n grados de libertad. A esta v.a. la denotaremos χn

2.

La función de densidad de esta v.a. carece para nosotros de interés y no la daremos en este volumen.

Esta distribución, que por razones lógicas toma sólo valores positivos o cero, tiene un único parámetro que se corresponde con el número de v.a. normales que sumamos.

Para calcular probabilidades asociadas a esta distribución operaremos mediante una tabla de forma semejante a lo que hacíamos con la distribución Normal.

Características: Esperanza matemática: E[X] = n Varianza: Var(X) = 2n

Propiedades:

Propiedad 1.- Si X sigue una distribución χn2 y Y sigue una distribución χm

2 y son independientes, entonces X+Y sigue una distribución χn+m

2.

Page 27: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD

García Córdoba 27

Propiedad 2.- Si Xi ≡ N(μi; σi) con i = 1, ..., n independientes. Entonces

⎟⎠

⎞⎜⎝

⎛σ

μ∑i

ii2n

1=i

- Xsigue una distribución χn

2.

1.3.2.3.2.- La distribución t de Student.

Definición. Sean X y Xi con i = 1,..., n v.a. independientes e igualmente distribuidas con distribución N(0,1). Entonces la v.a.

nX + . . . + X + X

X =t 2n

22

21

sigue una distribución t de Student con n grados de libertad.

Como la suma de normales es una distribución χ2 podríamos definir la distribución t de Student de forma alternativa como el cociente de una N(0,1) entre la raíz cuadrada de una chi-cuadrado entre sus grados de libertad.

El origen de esta distribución se encuentra el la estimación de esperanzas de distribuciones normales cuando su desviación típica es desconocida. W.S. Gosset(1.876-1.937) por seudónimo Student, un industrial cervecero, la propuso y tabuló en 1.908.

La función de densidad de esta v.a. tiene un perfil totalmente semejante al de la distribución Normal N(0,1) y podemos aplicarle las mismas propiedades de simetría que tenía la N(0,1).

Características: Esperanza matemática: E[X] = 0 (si n>1) Varianza: Var(X) = n/(n-2) ( si n>2, para n=1,2 no existe)

1.3.2.3.3.- La distribución F de Snedecor.

Definición.- Sean X e Y v.a. independientes con distribución χ2 de n y m grados de libertad, respectivamente. La v.a.

mYnX

= U

se dice que sigue una distribución F de Snedecor con n grados de libertad en el numerador y m grados de libertad en el denominador.

A esta v.a. que depende de dos parámetros n y m la denotaremos habitualmente como Fn,m.

Al igual que ocurre con las otras variables que estamos presentando en este apartado, la función de distribución de la F de Snedecor está tabulada.

Page 28: TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE …metodos.upct.es/Asignaturas/Diplomatura/Ampliacion_estadistica/2008... · Distribuciones continuas especiales. ... Fundamentalmente

TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD

García Córdoba 28

BIBLIOGRAFÍA:

**García Córdoba, Palacios Sánchez, Ruiz Marín: “Probabilidad e Inferencia Estadística: Una Introducción”. Ed. Horacio Escarabajal. Barbancho, A.G.: "Estadística Teórica Básica. Probabilidad y Modelos Probabilísticos" Ed: Ariel. Durá Peiró: "Fundamentos de Estadística" Ed: Ariel Escuder, R. "Introducción a la Teoría de la Probabilidad" Ed: tirant to blanch economía. Evans J.R y Olson D.L. “Statistics, Data análisis and decisión modeling” Prentice Hall. Fernández Abascal: "Cálculo de Probabilidades y Estadística" Ed: Ariel. Gutiérrez Jaímez R. y otros.: "Curso Básico de Probabilidad" Ed: Pirámide. Llopis Perez J. "La estadística: una orquesta hecha instrumento" Ed: Ariel Ciencia. Martín Pliego F.J. Montero Lorenzo J.M. Riuz-Maya Pérez L. "Problemas de Probabilidad" Ed: AC. Martín Pliego, Ruiz Maya: "Estadística: I Probabilidad . II Inferencia Estadística" Ed: AC. **Newbold P. "Estadística para los Negocios y la Economía" Ed: Prentice Hall **Novales A., “Estadística y Econometría” Ed: Mc Graw Hill. Problemas: Fernández Abascal, Guijarro Rojo: "Ejercicios de Cálculo de Probabilidades" Ed: Ariel. Martín Pliego F.J. y otros: “Problemas de Probabilidad” Murgui, J.S. "Estadística para la Economía y Administración de Empresas" Ed: Purchades. Ruiz Maya: "Problemas de Estadística" Ed:AC Sarabia Alegría J.M. : "Curso Práctico de Estadística" Ed: Cívitas. Serret Moreno-Gil J.: "Manual de Estadística Universitaria" Ed. ESIC. Tussel F. Garín A: "Problemas de Probabilidad e Inferencia Estadística" Ed:Tebar Flores. ** Palacios González y otros. “Ejercicios resueltos de inferencia estadística…”. Delta ** Sierra, Miguel Ángel. “Ejercicios resueltos de estadística”. Ed. Ceura

Para saber más o comprobar dudas: http://www.ematematicas.net/estadistica/aleatoria/index.php http://www.uam.es/personal_pdi/ciencias/mayter/docencia/sociolog/tema3.pdf http://www.eumed.net/libros/2006a/rmss/a7.htm http://delta.cs.cinvestav.mx/~francisco/prob2006/v_aleatoria.pdf http://e-stadistica.bio.ucm.es/cont_mod_1.html#modelos%20de%20probabilidad http://www.est.uc3m.es/esp/nueva_docencia/getafe/gestion_administracion_publica/estadistica_I/doc_generica/archivos/TEMA%209-VARIABLES%20ALEATORIAS.doc http://www.nebrija.es/~ralvarez/textos/ESTADISTICA/variablealeatoriaa.pdf