Download - V a Multidimensionales ( Normales ,Etc )

Transcript
  • 1Introduccion al Tema 9

    Tema 1. Introduccin.Tema 2. Anlisis de datos univariantes.Tema 3. Anlisis de datos bivariantes.Tema 4. Correlacin y regresin.Tema 5. Series temporales y nmeros ndice.

    Tema 5. Probabilidad.Tema 6. Variables aleatorias unidimensionales.Tema 7. Modelos probabilsticos discretos.Tema 8. Modelos probabilsticos continuos.Tema 9. Variables aleatorias multidimensionales.

    Descripcin de variables y datos socioeconmicos

    Modelizacin de la incertidumbre en las variables socieconmicas

    Tema 5Tema 6Tema 7Tema 8

    W Introduccion a la ProbabilidadVariables aleatorias unidimensionales: Definicion y propiedades Ejemplos.

    Tema 9 W Variables aleatorias multidimensionales : Definicion y propiedades Ejemplos.

    Estudiar situaciones mas realistas

    Introduccion a la Estadstica Andres M. Alonso

  • 2Tema 9. Variables aleatorias multidimensionales

    Los contenidos a desarrollar en este tema son los siguientes:

    Variables aleatorias multidimensionales.

    Distribuciones conjuntas, marginales y condicionales.

    Independencia.

    Media y matriz de varianzas y covarianzas.

    Media condicionada.

    Distribucion normal multivariante.

    Lecturas recomendadas: Captulo 6 del libro de Pena (2005) y las secciones3.7, 4.4 y 5.4 de Newbold (2001).

    Introduccion a la Estadstica Andres M. Alonso

  • 3Ejemplo 1. Se lanzan tres monedas distintas con probabilidades de cara de0,5, 0,4 y 0,3 respectivamente. Sean X el numero de caras (c) en las primerasdos monedas e Y el numero de cruces (x) en las ultimas dos lanzadas.

    Los posibles resultados del experimento, sus probabilidades y los valores de lasvariables X e Y son los siguientes.

    Resultado Prob. X Y{c, c, c} 0,06 2 0{c, c, x} 0,14 2 1{c, x, c} 0,09 1 1{c, x, x} 0,21 1 2{x, c, c} 0,06 1 0{x, c, x} 0,14 1 1{x, x, c} 0,09 0 1{x, x, x} 0,21 0 2

    Hacemos una tabla de doble entrada mostrando la distribucion conjunta de lasdos variables.

    Introduccion a la Estadstica Andres M. Alonso

  • 4Distribucion conjunta de X e Y

    Definicion 1. Para dos variables discretas X e Y , la distribucion conjuntade XXX e YYY es el conjunto de probabilidades Pr(X = x, Y = y) para todos losposibles valores de x e y.

    Ejemplo 1.

    Y0 1 2

    0 0,00 0,09 0,21X 1 0,06 0,23 0,21

    2 0,06 0,14 0,00

    I Observamos que x

    y

    Pr(X = x, Y = y) = 1.

    Introduccion a la Estadstica Andres M. Alonso

  • 5Distribuciones marginales de X e Y

    Definicion 2. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la distribucionmarginal de XXX es

    Pr(X = x) =y

    Pr(X = x, Y = y),

    y la distribucion marginal de YYY es

    Pr(Y = y) =x

    Pr(X = x, Y = y).

    Ejemplo 1.Y

    0 1 20 0,00 0,09 0,21 0,3

    X 1 0,06 0,23 0,21 0,52 0,06 0,14 0,00 0,2

    0,12 0,46 0,42 1,0

    La distribucion marginal de X es

    Pr(X = x) =

    0,3 si x = 00,5 si x = 10,2 si x = 20 si no

    Ejercicio: Distribucion marginal de Y .

    Introduccion a la Estadstica Andres M. Alonso

  • 6Distribucion condicionada

    Definicion 3. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la distribucioncondicionada de XXX dado Y = yY = yY = y es

    Pr(X = x|Y = y) = Pr(X = x, Y = y)Pr(Y = y)

    ,

    y la distribucion condicionada de YYY dado X = xX = xX = x es

    Pr(Y = y|X = x) = Pr(X = x, Y = y)Pr(X = x)

    ,

    Ejemplo 1. La distribucion condicionada de Y dado X = 2 es

    P (Y = y|X = 2) = 0,3 si y = 00,7 si y = 10 si no

    Ejercicio: Distribucion condicionada de X dado Y = 0.

    Introduccion a la Estadstica Andres M. Alonso

  • 7Independencia

    Definicion 4. Se dicen que dos variables (discretas) X e Y sonindependientes si

    Pr(X = x, Y = y) = Pr(X = x) Pr(Y = y)

    para todos los valores de x e y.

    I Esta definicion equivale a decir que

    Pr(X = x|Y = y) = Pr(X = x) oPr(Y = y|X = x) = Pr(Y = y),

    para todos los valores de x e y.

    Ejemplo 1. X e Y no son independientes pues, por ejemplo:

    Pr(X = 0, Y = 0) = 0,00 6= 0,30 0,12 = Pr(X = 0)Pr(Y = 0).

    Introduccion a la Estadstica Andres M. Alonso

  • 8Vector de esperanzas

    Definicion 5. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza de(X,Y )(X,Y )(X,Y ) es

    = E[(

    XY

    )]=x

    y

    (xy

    )Pr(X = x, Y = y).

    E

    [(XY

    )]=(

    x

    y xPr(X = x, Y = y)

    x

    y yPr(X = x, Y = y)

    )=(

    x x

    y Pr(X = x, Y = y)y y

    xPr(X = x, Y = y)

    )=(

    x xPr(X = x)y yPr(X = x)

    )=(E[X]E[Y ]

    ).

    I La esperanza de un vector, (X,Y ), es el vector de las esperanzas de suscomponentes.

    Introduccion a la Estadstica Andres M. Alonso

  • 9Esperanza de g(X,Y )

    I La esperanza de una funcion de la variable o vector aleatorio, (X,Y ), quetiene distribucion conjunta Pr(X = x, Y = y) para todos los posibles valoresde x e y es:

    E[g(X,Y )] =x

    y

    g(x, y) Pr(X = x, Y = y).

    Ejemplo 2. Con los datos del Ejemplo 1, calcule E[XY ].Y

    0 1 20 0,00 0,09 0,21 0,3

    X 1 0,06 0,23 0,21 0,52 0,06 0,14 0,00 0,2

    0,12 0,46 0,42 1,0

    Entonces,

    E[XY ] = (0 0) 0,00 + (0 1) 0,09 + + (2 2) 0,00 = 0,93.Introduccion a la Estadstica Andres M. Alonso

  • 10

    Covarianza

    Definicion 6. Para dos variables X e Y , la covarianza entre XXX e YYY es

    Cov(X,Y ) = E[(X E[X])(Y E[Y ])]

    I A menudo, se escribe XY para representar la covarianza.

    I En la practica, normalmente, se evalua la covarianza a traves de otra formulaequivalente:

    Teorema 1.Cov[X,Y ] = E[XY ] E[X]E[Y ]

    I Cov(X,Y ) = E[(Y E[Y ])(X E[X])] = Cov(Y,X).

    Introduccion a la Estadstica Andres M. Alonso

  • 11

    Matriz de varianzas y covarianzas

    Definicion 7. Para dos variables X e Y , la matriz de varianzas y covari-anzas entre XXX e YYY es

    SSS =[

    V (X) Cov(X,Y )Cov(Y,X) V (Y )

    ].

    Ejemplo 3. Volvemos al Ejemplo 1. Tenemos:E[X] = 0 0,3 + 1 0,5 + 2 0,2 = 0,9E[Y ] = 0 0,12 + 1 0,46 + 2 0,52 = 1,5

    E[X2]

    = 02 0,3 + 12 0,5 + 22 0,2 = 1,3V [X] = 1,3 0,92 = 0,49

    E[Y 2]

    = 02 0,12 + 12 0,46 + 22 0,52 = 2,54V [Y ] = 2,54 0,932 = 1,6751

    E[XY ] = 0 0 0,00 + 0 1 0,09 + . . .+ 2 2 0 = 0,93Cov[X,Y ] = 0,93 0,9 1,5 = 0,42 y SSS?

    Introduccion a la Estadstica Andres M. Alonso

  • 12

    Suma y diferencia de variables aleatorias

    Proposicion 1. Sean X e Y dos variables con distribucion conjuntaPr(X = x, Y = y), y sea Z = X + Y , entonces:

    i) E[Z] = E[X + Y ] = E[X] + E[Y ].ii) V (Z) = V (X) + V (Y ) + 2Cov(X,Y ).

    Demostracion

    E[Z] =x

    y

    (x+ y) Pr(X = x, Y = y)

    =x

    y

    xPr(X = x, Y = y) +x

    y

    yPr(X = x, Y = y)

    =x

    xy

    Pr(X = x, Y = y) +y

    yx

    Pr(X = x, Y = y)

    =x

    xPr(X = x) +y

    yPr(Y = y) = E[X] + E[Y ].

    Introduccion a la Estadstica Andres M. Alonso

  • 13

    Suma y diferencia de variables aleatorias

    V (Z) = E[Z2] E[Z]2 =x

    y

    (x+ y)2Pr(X = x, Y = y) (E[X] + E[Y ])2

    =

    x

    y(x

    2 + 2xy + y2) Pr(X = x, Y = y) (E[X] + E[Y ])2

    = E[X2] + 2E[XY ] + E[Y 2] (E[X]2 + 2E[X]E[Y ] + E[Y ]2)= V (X) + 2Cov(X,Y ) + V (Y ).

    I Analogamente se prueba que

    Proposicion 2. Sean X e Y dos variables con distribucion conjuntaPr(X = x, Y = y), y sea Z = X Y , entonces:

    i) E[Z] = E[X + Y ] = E[X] E[Y ].ii) V (Z) = V (X) + V (Y ) 2Cov(X,Y ).

    Introduccion a la Estadstica Andres M. Alonso

  • 14

    Correlacion

    Definicion 8. La correlacion entre XXX e YYY es

    XY = Corr[X,Y ] =Cov[X,Y ]

    DT [X]DT [Y ]

    Definicion 9. Para dos variables X e Y , la matriz de correlaciones entreXXX e YYY es

    RRR =[

    1 Corr(X,Y )Corr(Y,X) 1

    ].

    Ejemplo 4. Tenemos (ver Ejemplo 3)

    DT [X] = 0,7

    DT [Y ] = 1,294

    Cov[X,Y ] = 0,42Corr[X,Y ] =

    0,420,7 1,294 0,464.

    Hay una relacion negativa entre las dos variables.

    Introduccion a la Estadstica Andres M. Alonso

  • 15

    Propiedades de la correlacion

    1. 1 XY 1

    2. La correlacion es igual a 1 si y solo si existe una relacion lineal positiva entreX e Y , es decir

    Y = + X, donde > 0.

    3. La correlacion es 1 si y solo si existe una relacion lineal negativa

    Y = X donde < 0.

    4. Si X e Y son independientes, XY = 0.

    I El recproco del ultimo resultado no es cierto: existen variables incorreladaspero dependientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 16

    Esperanza condicionada

    Definicion 10. Para dos variables discretas X e Y con distribucion conjuntaPr(X = x, Y = y) para todos los posibles valores de x e y, la esperanzacondicionada de XXX dado Y = yY = yY = y es

    E[X|Y = y] =x

    xPr(X = x|Y = y),

    y la esperanza condicionada de YYY dado X = xX = xX = x es:

    E[Y |X = x] =y

    yPr(Y = y|X = x).

    Ejemplo 5. Volvemos al Ejemplo 1. La media condicionada de Y dado X = 2es

    E[Y |X = 2] = 0,3 0 + 0,7 1 = 0,7.

    Introduccion a la Estadstica Andres M. Alonso

  • 17

    Ley de las esperanzas iteradas

    Proposicion 3. E[E[X|Y ]] = E[X].Demostracion

    Primero, debemos notar que E[X|Y ] es una v.a. que depende de Y , por tantose aplica el resultado E[g(Y )] =

    y g(y) Pr(Y = y):

    E[E[X|Y = y]] =y

    (x

    xPr(X = x|Y = y))Pr(Y = y)

    =y

    x

    xPr(X = x, Y = y)

    =x

    xy

    Pr(X = x, Y = y) =x

    xPr(X = x) = E[X].

    I Analogamente, E[Y ] = E[E[Y |X]].

    Introduccion a la Estadstica Andres M. Alonso

  • 18

    Tema 9. Variables aleatorias multidimensionales

    Variables aleatorias multidimensionales.

    Distribuciones conjuntas, marginales ycondicionales.

    Independencia.

    Media y matriz de varianzas y covarianzas.

    Media condicionada.

    Distribucion normal multivariante.

    V.A. Discretas

    V.A. Continuas

    Introduccion a la Estadstica Andres M. Alonso

  • 19

    Generalizacion para variables continuas

    Definicion 11. Para dos variables aleatorias cualesquiera, se define la funcionde distribucion conjunta por

    F (x, y) = P (X x, Y y)

    y en el caso de v.a. continuas se define la funcion de densidad conjunta por

    f(x, y) =2

    xyF (x, y).

    I Se tiene que x

    y

    f(x, y) dx dy = F (x, y).

    I Se calculan la distribuciones marginales, condicionadas, media, covarianza,etc. de manera similar al calculo para variables discretas sustituyendo integralespor las sumas donde sea necesario.

    Introduccion a la Estadstica Andres M. Alonso

  • 20

    Ejemplo 6. Verificar que la siguiente funcion bivariante es una densidad

    f (x, y) = 6xy2, 0 < x < 1, 0 < y < 1,

    En primer lugar observamos que f(x, y) 0 y en segundo lugar, debemoscomprobar que la densidad integra a 1.

    10

    10

    6xy2dxdy = 10

    6x[y3

    3

    ]10

    dx

    = 10

    6x13dx = 2

    [x2

    2

    ]10

    = 1.

    Introduccion a la Estadstica Andres M. Alonso

  • 21

    Densidades marginales

    La densidad marginal de X es f(x) =f(x, y) dy

    La densidad marginal de X es f(x) =f(x, y) dy

    Ejemplo 6. Tenemos

    f(x) = 10

    6xy2 dy =[6xy3

    3

    ]10

    = 2x para 0 < x < 1

    Igualmente, la densidad marginal de Y es

    f(y) = 10

    6xy2 dx =[6x2

    2y2]10

    = 3y2 para 0 < y < 1

    Introduccion a la Estadstica Andres M. Alonso

  • 22

    Independencia

    Definicion 12. Se dicen que dos variables X e Y son independientes si

    F (x, y) = F (x)F (y),

    para todos los valores de x e y.

    I Para v.a. continuas independientes tenemos, equivalentemente, que

    f(x, y) = f(x)f(y) para todos los valores de x e y.

    Ejemplo 6. Observamos que

    f(x, y) = 6xy2

    = 2x 3y2= f(x)f(y)

    Entonces, X e Y son independientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 23

    Independencia y correlacion

    Proposicion 4. Si X y Y son v.a. independientes, entonces

    Cov(X,Y ) = Corr(X,Y ) = 0.

    El resultado recproco no es cierto

    Ejemplo 7. Sea X una v.a. distribuida N (0, 1), e Y = X2, entonces:E[X] = 0

    E[Y ] = E[X2] = 1

    E[XY ] = E[X3] = 0 por ser una distribucion simetrica

    Cov(X,Y ) = E[XY ] E[X]E[Y ] = 0.

    Y, sin embargo, X e Y son claramente dependientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 24

    Tema 9. Variables aleatorias multidimensionales

    Variables aleatorias multidimensionales.

    Distribuciones conjuntas, marginales y condicionales.

    Independencia.

    Media y matriz de varianzas y covarianzas.

    Media condicionada.

    X

    Distribucion normal multivariante.

    Introduccion a la Estadstica Andres M. Alonso

  • 25

    Distribucion normal multivariante

    Definicion 13. Una variable aleatoria multivariante XXX = (X1, X2, . . . , Xp)

    sigue una distribucion normal multivariante si tiene como funcion dedensidad a

    f(xxx) =1

    (2pi)p/2||1/2 exp{12(xxx)1(xxx)

    },

    donde = (1, 2, . . . , p), y

    =

    21 12 1p21

    22 2p

    ... ... . . . ...p1 p2 2p

    .

    I Si XXX tiene una distribucion normal multivariante, se escribe XXX N (,).

    Introduccion a la Estadstica Andres M. Alonso

  • 26

    Propiedades de la distribucion normal multivariante

    1. La funcion de densidad es simetrica alrededor de .

    2. La media del vector aleatorio XXX es , i.e., E [XXX] = .

    3. La matriz de varianzas y covarianzas del vector aleatorio XXX es , i.e.,E [(XXX )(XXX )] = .

    4. Cualquier subconjunto de h variables univariantes del vector xxx, conh < p, sigue una distribucion normal h-dimensional. En particular, lasdistribuciones marginales son normales univariantes.

    5. Si definimos un vector YYY = AAAYYY , dondeAAA es una matriz de constantes realesde dimension kp, entonces YYY sigue una distribucion normal k-dimensional.

    Introduccion a la Estadstica Andres M. Alonso

  • 27

    Propiedades de la distribucion normal multivariante

    I Podemos completar la propiedad anterior con los siguientes resultados validospara vectores aleatorios cualesquiera:

    Sea XXX un vector aleatorio p-dimensional tal que E [XXX] = yE [(XXX )(XXX )] = . Sea YYY = AAAXXX, donde AAA es una matriz deconstantes reales de dimension k p entonces: E [YYY ] = AAA. E [(YYY AAA)(YYY AAA)] = AAAAAA.

    I Re-escribimos la propiedad 5 como:

    5. Si definimos un vector YYY = AAAXXX, dondeAAA es una matriz de constantes realesde dimension kp, entonces YYY sigue una distribucion normal k-dimensional,Nk(AAA,AAAAAA).

    Introduccion a la Estadstica Andres M. Alonso

  • 28

    El siguiente grafico muestra la funcion de densidad conjunta de una distribucionnormal bivariante estandar, con media = (0, 0)T y matriz de varianzas ycovarianzas = I.

    32

    10

    12

    3

    32

    10

    12

    30

    0.02

    0.04

    0.06

    0.08

    0.1

    0.12

    0.14

    0.16

    Introduccion a la Estadstica Andres M. Alonso

  • 29

    Independencia y correlacion bajo normalidad

    Proposicion 5. Si (X,Y ) es un vector aleatorio normal, y X e Y sonincorrelados (Cov(X,Y) = 0) entonces X e Y son independientes.

    I Recordar queIndependientes Correlacion = 0Independientes : Correlacion = 0

    Independientes Correlacion = 0

    +Normalidad

    Ejemplo 8. Sea (X,Y ) un vector normal bivariante de media = (4, 6) y

    matriz de varianza y covarianzas =[2 11 5

    ]. Sean Z = X+Y3 y T =

    2XY3 .

    Compruebe que Z y T son independientes.

    Introduccion a la Estadstica Andres M. Alonso

  • 30

    Ejemplo 9. (Junio/2002 modificado) Las calificaciones obtenidas en dospruebas distintas A y B por los alumnos presentados a la Selectividad, son(in?)dependientes y siguen las distribuciones normales: NA( = 62; = 20),NB( = 52; = 10). La covarianza entre ellas es 100. La prueba se considerasuperada con 50 puntos. Calcular:

    (a) La probabilidad de que un alumno en la prueba A haya obtenido unapuntuacion menor que 40. X(b) La probabilidad que haya superado la prueba B. X(c) Si para el acceso a una Universidad se necesita que la media aritmetica delas dos notas anteriores sea mayor que 70, cual es la probabilidad de que unalumno escogido al azar pueda acceder a dicha Universidad?

    Sea X la nota en la prueba A e Y la nota en la prueba B. Sea T = X+Y2 .

    Introduccion a la Estadstica Andres M. Alonso

  • 31

    Que sabemos? [XY

    ] N

    ([6252

    ];[400 100100 100

    ]).

    y

    T = [0,5 0,5][XY

    ] N

    ([0,5 0,5]

    [6252

    ]; [0,5 0,5]

    [400 100100 100

    ] [0,50,5

    ]) N

    (57;

    175).

    Por tanto,

    Pr(M > 70) = Pr(M 57

    175>

    70 57175

    ) Pr(Z > 0,98) = Pr(Z < 0,98) = 0,1635.

    Introduccion a la Estadstica Andres M. Alonso

  • 32

    Recapitulacion

    Tema 9. Variables aleatorias multidimensionales

    Variables aleatorias multidimensionales.Distribuciones conjuntas, marginales ycondicionales.Independencia.Media y matriz de varianzas y covarian-zas.Media condicionada.

    W Extension del conceptode variable aleatoriay su caracterizacion.

    Distribucion normal multivariante.W Extension multivariante

    de la distribucion normal

    Introduccion a la Estadstica Andres M. Alonso