V a Multidimensionales ( Normales ,Etc )

32
 1 Introducci´ on al Tema 9  Tema 5. Probabilidad. Tema 6. Variables aleatorias unidimensionales. Tema 7. Modelos probabilísticos discretos. Tema 8. Modelos probabilísticos continuos. Tema 9. Variables aleatorias multidimensionales.  Modelización de la incertidumbre en las variables socieconómica s Tema 5 Tema 6 Tema 7 Tema 8  Introducci´ on a la Probabilidad Variables aleatorias unidimensionales:  Denici´ on y propiedades  Ejemplos. Tema 9   Va riables aleatorias multidimensionales :  Denici´ on y propiedades  Ejemplos. Estudiar situaciones m´ as realistas Introducci´ on a la Estad ´ ıstica Andr´ es M. Alonso

description

Interesante estadisca A

Transcript of V a Multidimensionales ( Normales ,Etc )

  • 1Introduccion al Tema 9

    Tema 1. Introduccin.Tema 2. Anlisis de datos univariantes.Tema 3. Anlisis de datos bivariantes.Tema 4. Correlacin y regresin.Tema 5. Series temporales y nmeros ndice.

    Tema 5. Probabilidad.Tema 6. Variables aleatorias unidimensionales.Tema 7. Modelos probabilsticos discretos.Tema 8. Modelos probabilsticos continuos.Tema 9. Variables aleatorias multidimensionales.

    Descripcin de variables y datos socioeconmicos

    Modelizacin de la incertidumbre en las variables socieconmicas

    Tema 5Tema 6Tema 7Tema 8

    W Introduccion a la ProbabilidadVariables aleatorias unidimensionales: Definicion y propiedades Ejemplos.

    Tema 9 W Variables aleatorias multidimensionales : Definicion y propiedades Ejemplos.

    Estudiar situaciones mas realistas

    Introduccion a la Estadstica Andres M. Alonso

  • 2Tema 9. Variables aleatorias multidimensionales

    Los contenidos a desarrollar en este tema son los siguientes:

    Variables aleatorias multidimensionales.

    Distribuciones conjuntas, marginales y condicionales.

    Independencia.

    Media y matriz de varianzas y covarianzas.

    Media condicionada.

    Distribucion normal multivariante.

    Lecturas recomendadas: Captulo 6 del libro de Pena (2005) y las secciones3.7, 4.4 y 5.4 de Newbold (2001).

    Introduccion a la Estadstica Andres M. Alonso

  • 3Ejemplo 1. Se lanzan tres monedas distintas con probabilidades de cara de0,5, 0,4 y 0,3 respectivamente. Sean X el numero de caras (c) en las primerasdos monedas e Y el numero de cruces (x) en las ultimas dos lanzadas.

    Los posibles resultados del experimento, sus probabilidades y los valores de lasvariables X e Y son los siguientes.

    Resultado Prob. X Y{c, c, c} 0,06 2 0{c, c, x} 0,14 2 1{c, x, c} 0,09 1 1{c, x, x} 0,21 1 2{x, c, c} 0,06 1 0{x, c, x} 0,14 1 1{x, x, c} 0,09 0 1{x, x, x} 0,21 0 2

    Hacemos una tabla de doble entrada mostrando la distribucion conjunta de lasdos variables.

    Introduccion a la Estadstica Andres M. Alonso

  • 4Distribucion conjunta de X e Y

    Definicion 1. Para dos variables discretas X e Y , la distribucion conjuntade XXX e YYY es el conjunto de probabilidades Pr(X = x, Y = y) para todos losposibles valores de x e y.

    Ejemplo 1.

    Y0 1 2

    0 0,00 0,09 0,21X 1 0,06 0,23 0,21

    2 0,06 0,14 0,00

    I Observamos que x

    y

    Pr(X = x, Y = y) = 1.

    Introduccion a la Estadstica Andres M. Alonso

  • 5Distribuciones marginales de X e Y

    Definicion 2. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la distribucionmarginal de XXX es

    Pr(X = x) =y

    Pr(X = x, Y = y),

    y la distribucion marginal de YYY es

    Pr(Y = y) =x

    Pr(X = x, Y = y).

    Ejemplo 1.Y

    0 1 20 0,00 0,09 0,21 0,3

    X 1 0,06 0,23 0,21 0,52 0,06 0,14 0,00 0,2

    0,12 0,46 0,42 1,0

    La distribucion marginal de X es

    Pr(X = x) =

    0,3 si x = 00,5 si x = 10,2 si x = 20 si no

    Ejercicio: Distribucion marginal de Y .

    Introduccion a la Estadstica Andres M. Alonso

  • 6Distribucion condicionada

    Definicion 3. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la distribucioncondicionada de XXX dado Y = yY = yY = y es

    Pr(X = x|Y = y) = Pr(X = x, Y = y)Pr(Y = y)

    ,

    y la distribucion condicionada de YYY dado X = xX = xX = x es

    Pr(Y = y|X = x) = Pr(X = x, Y = y)Pr(X = x)

    ,

    Ejemplo 1. La distribucion condicionada de Y dado X = 2 es

    P (Y = y|X = 2) = 0,3 si y = 00,7 si y = 10 si no

    Ejercicio: Distribucion condicionada de X dado Y = 0.

    Introduccion a la Estadstica Andres M. Alonso

  • 7Independencia

    Definicion 4. Se dicen que dos variables (discretas) X e Y sonindependientes si

    Pr(X = x, Y = y) = Pr(X = x) Pr(Y = y)

    para todos los valores de x e y.

    I Esta definicion equivale a decir que

    Pr(X = x|Y = y) = Pr(X = x) oPr(Y = y|X = x) = Pr(Y = y),

    para todos los valores de x e y.

    Ejemplo 1. X e Y no son independientes pues, por ejemplo:

    Pr(X = 0, Y = 0) = 0,00 6= 0,30 0,12 = Pr(X = 0)Pr(Y = 0).

    Introduccion a la Estadstica Andres M. Alonso

  • 8Vector de esperanzas

    Definicion 5. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza de(X,Y )(X,Y )(X,Y ) es

    = E[(

    XY

    )]=x

    y

    (xy

    )Pr(X = x, Y = y).

    E

    [(XY

    )]=(

    x

    y xPr(X = x, Y = y)

    x

    y yPr(X = x, Y = y)

    )=(

    x x

    y Pr(X = x, Y = y)y y

    xPr(X = x, Y = y)

    )=(

    x xPr(X = x)y yPr(X = x)

    )=(E[X]E[Y ]

    ).

    I La esperanza de un vector, (X,Y ), es el vector de las esperanzas de suscomponentes.

    Introduccion a la Estadstica Andres M. Alonso

  • 9Esperanza de g(X,Y )

    I La esperanza de una funcion de la variable o vector aleatorio, (X,Y ), quetiene distribucion conjunta Pr(X = x, Y = y) para todos los posibles valoresde x e y es:

    E[g(X,Y )] =x

    y

    g(x, y) Pr(X = x, Y = y).

    Ejemplo 2. Con los datos del Ejemplo 1, calcule E[XY ].Y

    0 1 20 0,00 0,09 0,21 0,3

    X 1 0,06 0,23 0,21 0,52 0,06 0,14 0,00 0,2

    0,12 0,46 0,42 1,0

    Entonces,

    E[XY ] = (0 0) 0,00 + (0 1) 0,09 + + (2 2) 0,00 = 0,93.Introduccion a la Estadstica Andres M. Alonso

  • 10

    Covarianza

    Definicion 6. Para dos variables X e Y , la covarianza entre XXX e YYY es

    Cov(X,Y ) = E[(X E[X])(Y E[Y ])]

    I A menudo, se escribe XY para representar la covarianza.

    I En la practica, normalmente, se evalua la covarianza a traves de otra formulaequivalente:

    Teorema 1.Cov[X,Y ] = E[XY ] E[X]E[Y ]

    I Cov(X,Y ) = E[(Y E[Y ])(X E[X])] = Cov(Y,X).

    Introduccion a la Estadstica Andres M. Alonso

  • 11

    Matriz de varianzas y covarianzas

    Definicion 7. Para dos variables X e Y , la matriz de varianzas y covari-anzas entre XXX e YYY es

    SSS =[

    V (X) Cov(X,Y )Cov(Y,X) V (Y )

    ].

    Ejemplo 3. Volvemos al Ejemplo 1. Tenemos:E[X] = 0 0,3 + 1 0,5 + 2 0,2 = 0,9E[Y ] = 0 0,12 + 1 0,46 + 2 0,52 = 1,5

    E[X2]

    = 02 0,3 + 12 0,5 + 22 0,2 = 1,3V [X] = 1,3 0,92 = 0,49

    E[Y 2]

    = 02 0,12 + 12 0,46 + 22 0,52 = 2,54V [Y ] = 2,54 0,932 = 1,6751

    E[XY ] = 0 0 0,00 + 0 1 0,09 + . . .+ 2 2 0 = 0,93Cov[X,Y ] = 0,93 0,9 1,5 = 0,42 y SSS?

    Introduccion a la Estadstica Andres M. Alonso

  • 12

    Suma y diferencia de variables aleatorias

    Proposicion 1. Sean X e Y dos variables con distribucion conjuntaPr(X = x, Y = y), y sea Z = X + Y , entonces:

    i) E[Z] = E[X + Y ] = E[X] + E[Y ].ii) V (Z) = V (X) + V (Y ) + 2Cov(X,Y ).

    Demostracion

    E[Z] =x

    y

    (x+ y) Pr(X = x, Y = y)

    =x

    y

    xPr(X = x, Y = y) +x

    y

    yPr(X = x, Y = y)

    =x

    xy

    Pr(X = x, Y = y) +y

    yx

    Pr(X = x, Y = y)

    =x

    xPr(X = x) +y

    yPr(Y = y) = E[X] + E[Y ].

    Introduccion a la Estadstica Andres M. Alonso

  • 13

    Suma y diferencia de variables aleatorias

    V (Z) = E[Z2] E[Z]2 =x

    y

    (x+ y)2Pr(X = x, Y = y) (E[X] + E[Y ])2

    =

    x

    y(x

    2 + 2xy + y2) Pr(X = x, Y = y) (E[X] + E[Y ])2

    = E[X2] + 2E[XY ] + E[Y 2] (E[X]2 + 2E[X]E[Y ] + E[Y ]2)= V (X) + 2Cov(X,Y ) + V (Y ).

    I Analogamente se prueba que

    Proposicion 2. Sean X e Y dos variables con distribucion conjuntaPr(X = x, Y = y), y sea Z = X Y , entonces:

    i) E[Z] = E[X + Y ] = E[X] E[Y ].ii) V (Z) = V (X) + V (Y ) 2Cov(X,Y ).

    Introduccion a la Estadstica Andres M. Alonso

  • 14

    Correlacion

    Definicion 8. La correlacion entre XXX e YYY es

    XY = Corr[X,Y ] =Cov[X,Y ]

    DT [X]DT [Y ]

    Definicion 9. Para dos variables X e Y , la matriz de correlaciones entreXXX e YYY es

    RRR =[

    1 Corr(X,Y )Corr(Y,X) 1

    ].

    Ejemplo 4. Tenemos (ver Ejemplo 3)

    DT [X] = 0,7

    DT [Y ] = 1,294

    Cov[X,Y ] = 0,42Corr[X,Y ] =

    0,420,7 1,294 0,464.

    Hay una relacion negativa entre las dos variables.

    Introduccion a la Estadstica Andres M. Alonso

  • 15

    Propiedades de la correlacion

    1. 1 XY 1

    2. La correlacion es igual a 1 si y solo si existe una relacion lineal positiva entreX e Y , es decir

    Y = + X, donde > 0.

    3. La correlacion es 1 si y solo si existe una relacion lineal negativa

    Y = X donde < 0.

    4. Si X e Y son independientes, XY = 0.

    I El recproco del ultimo resultado no es cierto: existen variables incorreladaspero dependientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 16

    Esperanza condicionada

    Definicion 10. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la esperanzacondicionada de XXX dado Y = yY = yY = y es

    E[X|Y = y] =x

    xPr(X = x|Y = y),

    y la esperanza condicionada de YYY dado X = xX = xX = x es:

    E[Y |X = x] =y

    yPr(Y = y|X = x).

    Ejemplo 5. Volvemos al Ejemplo 1. La media condicionada de Y dado X = 2es

    E[Y |X = 2] = 0,3 0 + 0,7 1 = 0,7.

    Introduccion a la Estadstica Andres M. Alonso

  • 17

    Ley de las esperanzas iteradas

    Proposicion 3. E[E[X|Y ]] = E[X].Demostracion

    Primero, debemos notar que E[X|Y ] es una v.a. que depende de Y , por tantose aplica el resultado E[g(Y )] =

    y g(y) Pr(Y = y):

    E[E[X|Y = y]] =y

    (x

    xPr(X = x|Y = y))Pr(Y = y)

    =y

    x

    xPr(X = x, Y = y)

    =x

    xy

    Pr(X = x, Y = y) =x

    xPr(X = x) = E[X].

    I Analogamente, E[Y ] = E[E[Y |X]].

    Introduccion a la Estadstica Andres M. Alonso

  • 18

    Tema 9. Variables aleatorias multidimensionales

    Variables aleatorias multidimensionales.

    Distribuciones conjuntas, marginales ycondicionales.

    Independencia.

    Media y matriz de varianzas y covarianzas.

    Media condicionada.

    Distribucion normal multivariante.

    V.A. Discretas

    V.A. Continuas

    Introduccion a la Estadstica Andres M. Alonso

  • 19

    Generalizacion para variables continuas

    Definicion 11. Para dos variables aleatorias cualesquiera, se define la funcionde distribucion conjunta por

    F (x, y) = P (X x, Y y)

    y en el caso de v.a. continuas se define la funcion de densidad conjunta por

    f(x, y) =2

    xyF (x, y).

    I Se tiene que x

    y

    f(x, y) dx dy = F (x, y).

    I Se calculan la distribuciones marginales, condicionadas, media, covarianza,etc. de manera similar al calculo para variables discretas sustituyendo integralespor las sumas donde sea necesario.

    Introduccion a la Estadstica Andres M. Alonso

  • 20

    Ejemplo 6. Verificar que la siguiente funcion bivariante es una densidad

    f (x, y) = 6xy2, 0 < x < 1, 0 < y < 1,

    En primer lugar observamos que f(x, y) 0 y en segundo lugar, debemoscomprobar que la densidad integra a 1.

    10

    10

    6xy2dxdy = 10

    6x[y3

    3

    ]10

    dx

    = 10

    6x13dx = 2

    [x2

    2

    ]10

    = 1.

    Introduccion a la Estadstica Andres M. Alonso

  • 21

    Densidades marginales

    La densidad marginal de X es f(x) =f(x, y) dy

    La densidad marginal de X es f(x) =f(x, y) dy

    Ejemplo 6. Tenemos

    f(x) = 10

    6xy2 dy =[6xy3

    3

    ]10

    = 2x para 0 < x < 1

    Igualmente, la densidad marginal de Y es

    f(y) = 10

    6xy2 dx =[6x2

    2y2]10

    = 3y2 para 0 < y < 1

    Introduccion a la Estadstica Andres M. Alonso

  • 22

    Independencia

    Definicion 12. Se dicen que dos variables X e Y son independientes si

    F (x, y) = F (x)F (y),

    para todos los valores de x e y.

    I Para v.a. continuas independientes tenemos, equivalentemente, que

    f(x, y) = f(x)f(y) para todos los valores de x e y.

    Ejemplo 6. Observamos que

    f(x, y) = 6xy2

    = 2x 3y2= f(x)f(y)

    Entonces, X e Y son independientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 23

    Independencia y correlacion

    Proposicion 4. Si X y Y son v.a. independientes, entonces

    Cov(X,Y ) = Corr(X,Y ) = 0.

    El resultado recproco no es cierto

    Ejemplo 7. Sea X una v.a. distribuida N (0, 1), e Y = X2, entonces:E[X] = 0

    E[Y ] = E[X2] = 1

    E[XY ] = E[X3] = 0 por ser una distribucion simetrica

    Cov(X,Y ) = E[XY ] E[X]E[Y ] = 0.

    Y, sin embargo, X e Y son claramente dependientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 24

    Tema 9. Variables aleatorias multidimensionales

    Variables aleatorias multidimensionales.

    Distribuciones conjuntas, marginales y condicionales.

    Independencia.

    Media y matriz de varianzas y covarianzas.

    Media condicionada.

    X

    Distribucion normal multivariante.

    Introduccion a la Estadstica Andres M. Alonso

  • 25

    Distribucion normal multivariante

    Definicion 13. Una variable aleatoria multivariante XXX = (X1, X2, . . . , Xp)

    sigue una distribucion normal multivariante si tiene como funcion dedensidad a

    f(xxx) =1

    (2pi)p/2||1/2 exp{12(xxx)1(xxx)

    },

    donde = (1, 2, . . . , p), y

    =

    21 12 1p21

    22 2p

    ... ... . . . ...p1 p2 2p

    .

    I Si XXX tiene una distribucion normal multivariante, se escribe XXX N (,).

    Introduccion a la Estadstica Andres M. Alonso

  • 26

    Propiedades de la distribucion normal multivariante

    1. La funcion de densidad es simetrica alrededor de .

    2. La media del vector aleatorio XXX es , i.e., E [XXX] = .

    3. La matriz de varianzas y covarianzas del vector aleatorio XXX es , i.e.,E [(XXX )(XXX )] = .

    4. Cualquier subconjunto de h variables univariantes del vector xxx, conh < p, sigue una distribucion normal h-dimensional. En particular, lasdistribuciones marginales son normales univariantes.

    5. Si definimos un vector YYY = AAAYYY , dondeAAA es una matriz de constantes realesde dimension kp, entonces YYY sigue una distribucion normal k-dimensional.

    Introduccion a la Estadstica Andres M. Alonso

  • 27

    Propiedades de la distribucion normal multivariante

    I Podemos completar la propiedad anterior con los siguientes resultados validospara vectores aleatorios cualesquiera:

    Sea XXX un vector aleatorio p-dimensional tal que E [XXX] = yE [(XXX )(XXX )] = . Sea YYY = AAAXXX, donde AAA es una matriz deconstantes reales de dimension k p entonces: E [YYY ] = AAA. E [(YYY AAA)(YYY AAA)] = AAAAAA.

    I Re-escribimos la propiedad 5 como:

    5. Si definimos un vector YYY = AAAXXX, dondeAAA es una matriz de constantes realesde dimension kp, entonces YYY sigue una distribucion normal k-dimensional,Nk(AAA,AAAAAA).

    Introduccion a la Estadstica Andres M. Alonso

  • 28

    El siguiente grafico muestra la funcion de densidad conjunta de una distribucionnormal bivariante estandar, con media = (0, 0)T y matriz de varianzas ycovarianzas = I.

    32

    10

    12

    3

    32

    10

    12

    30

    0.02

    0.04

    0.06

    0.08

    0.1

    0.12

    0.14

    0.16

    Introduccion a la Estadstica Andres M. Alonso

  • 29

    Independencia y correlacion bajo normalidad

    Proposicion 5. Si (X,Y ) es un vector aleatorio normal, y X e Y sonincorrelados (Cov(X,Y) = 0) entonces X e Y son independientes.

    I Recordar queIndependientes Correlacion = 0Independientes : Correlacion = 0

    Independientes Correlacion = 0

    +Normalidad

    Ejemplo 8. Sea (X,Y ) un vector normal bivariante de media = (4, 6) y

    matriz de varianza y covarianzas =[2 11 5

    ]. Sean Z = X+Y3 y T =

    2XY3 .

    Compruebe que Z y T son independientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 30

    Ejemplo 9. (Junio/2002 modificado) Las calificaciones obtenidas en dospruebas distintas A y B por los alumnos presentados a la Selectividad, son(in?)dependientes y siguen las distribuciones normales: NA( = 62; = 20),NB( = 52; = 10). La covarianza entre ellas es 100. La prueba se considerasuperada con 50 puntos. Calcular:

    (a) La probabilidad de que un alumno en la prueba A haya obtenido unapuntuacion menor que 40. X(b) La probabilidad que haya superado la prueba B. X(c) Si para el acceso a una Universidad se necesita que la media aritmetica delas dos notas anteriores sea mayor que 70, cual es la probabilidad de que unalumno escogido al azar pueda acceder a dicha Universidad?

    Sea X la nota en la prueba A e Y la nota en la prueba B. Sea T = X+Y2 .

    Introduccion a la Estadstica Andres M. Alonso

  • 31

    Que sabemos? [XY

    ] N

    ([6252

    ];[400 100100 100

    ]).

    y

    T = [0,5 0,5][XY

    ] N

    ([0,5 0,5]

    [6252

    ]; [0,5 0,5]

    [400 100100 100

    ] [0,50,5

    ]) N

    (57;

    175).

    Por tanto,

    Pr(M > 70) = Pr(M 57

    175>

    70 57175

    ) Pr(Z > 0,98) = Pr(Z < 0,98) = 0,1635.

    Introduccion a la Estadstica Andres M. Alonso

  • 32

    Recapitulacion

    Tema 9. Variables aleatorias multidimensionales

    Variables aleatorias multidimensionales.Distribuciones conjuntas, marginales ycondicionales.Independencia.Media y matriz de varianzas y covarian-zas.Media condicionada.

    W Extension del conceptode variable aleatoriay su caracterizacion.

    Distribucion normal multivariante.W Extension multivariante

    de la distribucion normal

    Introduccion a la Estadstica Andres M. Alonso