Vector Aleatorio(Complementario)

download Vector Aleatorio(Complementario)

of 22

Transcript of Vector Aleatorio(Complementario)

  • 8/10/2019 Vector Aleatorio(Complementario)

    1/22

    VECTORES ALEATORIOS

    1 Introduccion

    En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa

    analizar varias caractersticas simultaneamente, como por ejemplo la velocidad

    de transmision de un mensaje y la proporcion de errores. De esta forma seremos

    capaces de estudiar no solo el comportamiento de cada variable por separado,

    sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo

    principal de este tema es elaborar un modelo matematico que permita analizar

    experimentos aleatorios en los que cada resultado experimental A tiene asociados

    p valores numericos. Estos modelos seran la base para la construccion de los

    modelos inferenciales necesarios en este contexto para extrapolar los resultados

    de una muestra a la poblacion.

    2 Vectores aleatorios

    El concepto de vector aleatorio nace como una generalizacion natural de la nocion

    de variable aleatoria, al considerar simultaneamente el comportamiento aleatorio

    de varias caractersticas asociadas a un experimento.

    Definicion 2.1 (Vector aleatorio.) Dado un un espacio probabilstico(E, A, P)y el espacio probabilizable (Rp, ) con -algebra de Borel enRp, se dice que una

    aplicacionx= (x1 . . . , xp)t

    x: E Rp

    es un vector aleatorio si es medible, es decir x1(B) A B , por tantocada una de sus componentesxi, i= 1, . . . p es una variable aleatoria.

    Veamos algunos ejemplos sencillos de vectores aleatorios.

    El vector (x1, x2) representa la temperatura maxima que puede alcanzar una

    resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es m as

    frecuente utilizar la notacion (X,Y).)

    1

  • 8/10/2019 Vector Aleatorio(Complementario)

    2/22

    2 2 VECTORES ALEATORIOS

    Los componentes del vector (x1, x2, x3, x4, x5, x6)t representan, respectiva-

    mente, la edad, peso, estatura, sexo, colesterol y trigliceridos de una persona.

    Definicion 2.2 (Probabilidad inducida.) Dado un vector aleatorio x defini-

    do sobre(E, A, P), se denomina probabilidad inducida por el vector a la aplicacionPx: Rp definida por:

    Px(B) =P[x1(B)] B

    (Rp, , P x) es el espacio probabilstico inducido por x.

    La distribucion de probabilidad inducida por un vector aleatorio se puede

    caracterizar mediante la funcion de distribucion.

    Definicion 2.3 (Funcion de distribucion.) Dado el vector aleatorio x se de-

    nomina funcion de distribucion asociada, a la funcionF : Rp R definidapor:

    F(a) = P[x1a1, . . . , xpap]

    Las propiedades mas importantes de las funciones de distribucion son:

    1. F(, a2, . . . , ap) = = F(, , ai, , ) = 0.2. F(, . . . , ) = 1.3. F es continua por la derecha respecto de cada variable.

    4. F es no decreciente respecto a cada variable.

    5. En el caso bidimensional dadoshi> 0 se verifica que

    P((a1 < x1a1+ h1)

    (a2< x2a2+ h2)) ==F(a1+ h1, a2+ h2) F(a1, a2+ h2) F(a1+ h1, a2) + F(a1, a2)0

    Mientras que en el caso p-dimensional se tendra la expresion:

    F(a1+h1, . . . , ap+hp)p

    i=1

    F(a1+h1, . . . , ai1+hi1, ai, ai+1+hi+1, . . . , ap+hp)

    +

    pi,j=1,i=j

    F(a1+h1, . . . , ai1+hi1, ai, ai+1+hi+1, . . . , aj1+hj1, aj, aj+1+hj+1, . . . , ap+hp

    + . . . , +(1)pF(a1, . . . , ap)0

    Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de las

    variables aleatorias que lo componen.

  • 8/10/2019 Vector Aleatorio(Complementario)

    3/22

    3

    3 Vectores aleatorios discretos

    La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus

    componentes sean v. a. discretas.

    Definicion 3.1 (Vector aleatorio discreto) Seax un vector aleatorio defini-

    do sobre (E, A, P) yS ={a Rp/P(a) > 0}, se dice que xes discreto si secumple que:

    1. S

    =

    2. El cardinal deSes a lo sumo infinito numerable.3.aS

    P(a) = 1.

    4. P[xB] =aBSP(a).Al conjuntoSse le llama conjunto soporte del vector x.

    En este caso la funcion de distribucion es discontinua y viene dada por la

    expresion:

    F(x) = aSx

    P(a)

    con Sx ={a Rp/ax}.

    4 Vectores aleatorios continuos

    En los vectores aleatorios continuos cada componente es una v. a. de tipo

    continuo y analogamente al caso unidimensional para caracterizar su distribucion

    es conveniente emplear la funcion de densidad.

    Definicion 4.1 (Funcion de densidad) Una funcionf :R

    p

    R

    se dice quees funcion de densidad si verifica las condiciones:

    1. f(x)0 x Rp

    2.Rp

    f(x) dx= . . .

    f(x) dx= 1

    Definicion 4.2 (Vector aleatorio continuo) Un vector aleatorioxse dice que

    es continuo si su funcion de distribucion se puede expresar como:

    F(x) =

    x1

    . . .

    xp

    f(y)dyx Rp

  • 8/10/2019 Vector Aleatorio(Complementario)

    4/22

    4 5 DISTRIBUCIONES MARGINALES

    donde f es una funcion de densidad enRp.

    El conjunto Sx ={aRp/f(a)> 0} se denomina conjunto soporte de x.Las propiedades mas importantes de los vectores continuos son:

    1. La funcion de distribucion es continua.

    2. En los puntos de continuidad de la funcion de densidad se cumple que:

    f(x) = pF(x)

    x1 . . . xp

    3. S={a Rp/Px(a)> 0}=, es decir, P(a) = 0 a Rp4. P[xB ] = Bf(x)dx

    5 Distribuciones marginales

    Las componentes de los vectores aleatorios son v. a. y resulta en muchos casos

    de interes de estudiar el comportamiento de cada una de esas variables por se-

    parado o de grupos de las mismas. Para abordar este problemas se definen las

    distribuciones marginales.

    Definicion 5.1 (Distribuciones marginales) Sea x un vector aleatorio con

    funcion de distribucion F(x), entonces cada una de sus componentes, xi son

    variables aleatorias unidimensionales con las siguientes funciones de distribucion

    marginal para la componentexi

    Fi(xi) =F(+, + , xi, +, + )

    Tambien se puede hablar de distribuciones marginales de un subvector , as

    six= (x1, x2)se define la funcion de distribucion marginal dex1 como F1(x1) =

    F(x1, +

    ,

    +

    )

    Si el vector es continuo se tiene las funcion de densidad marginal de la compo-

    nentexi, fi(xi) =Rp1

    f(a1, . . . ai1, xi, ai+1, . . . an)da1 . . . d ai1dai+1, . . . d an

    Mientras que six es discreto las expresiones para las distribucion de proba-

    bilidad marginal de la componente xi son:

    Pi(xi) =

    yS,yi=xi

    P(y)

    Analogamente se tendran las distribuciones de los subvectores.

  • 8/10/2019 Vector Aleatorio(Complementario)

    5/22

    5

    6 Distribuciones condicionadas

    En muchos problemas reales puede interesa estudiar el comportamiento de una

    variable teniendo cierta informacion complementaria sobre el experimento. Por

    ejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respecti-

    vamente, las intensidades de las senales enviadas y recibidas a traves de un canal

    de informacion. Un aspecto fundamental es este tipo de problemas es conocer

    el comportamiento de la senal recibida Y condicionada a que se ha enviado una

    senal (X=x), es decir, analizar la distribucion de (Y / X=x). Otro problema muy

    interesante es el complementario del anterior, o sea, estudiar la senal que se envio

    cuando se conoce la senal recibida (X/ Y=y).

    Cuando el suceso que condiciona tiene una probabilidad estrictamente posi-

    tiva el problema se reduce a utilizar la probabilidad condicionada para calcular

    la distribucion de (x2/x1= a).

    Fx2/x1=a(b) = P(x1 = a, x2b)

    P(x1=a)

    En el caso que esta funcion sea absolutamente continua se puede considerar la

    funcion de densidad condicionada de (x2/x1= a) que sera

    fx2/x1=a(b) =p2(Fx2/x1=a(x2))

    x2

    b

    en los puntos de continuidad de la funcion de distribucion

    Sin embargo cuando el vectorx1es de tipo continuo, el suceso (x1 = a) tiene

    siempre una probabilidad igual a cero, y no se puede emplear el metodo anterior.

    En este caso se define la funcion de densidad condicionada.

    Definicion 6.1 (Funcion de densidad condicionada) Dado el vector alea-

    torio (x1, x2) la funcion de densidad dex2 condicionada a (x1 = a), se define

    como una funcion no negativa fx2/x1=a, que satisface:

    Fx2/x1=a(b) =

    {tRp2/tb}

    fx2/x1=a(t) dt x2 Rp2

    El siguiente resultado nos permite calcular la funcion de densidad condicio-

    nada en el caso de trabajar con vectores aleatorios continuos.

    Proposicion 6.1 Dado un vector aleatorio ( x1,x2) cuya funcion de densidad

    es f(x1, x2) se verifica que en todo punto de continuidad de f en el quefx2(b)>0,

  • 8/10/2019 Vector Aleatorio(Complementario)

    6/22

    6 7 MOMENTOS

    la funcion de densidad de (x1/x2= b) existe y vale:

    fx1/x2=b(a) = f(a, b)

    fx2(b)

    Definicion 6.2 (Independencia de vectores aleatorios)Dado el vector alea-

    torio x=(x1, x2) se dice quex1 yx2 son independientes cuando se verifica que:

    Fx(a,b) = Fx1(a) Fx2(b) (a, b) Rp

    Si trabajamos con la funcion de densidad esta condicion es equivalente a:

    fx(a, b) = fx1(a) fx2(b) (a , b) Rp

    Cuando las variables son discretas la independencia equivales a:

    Px(a, b) = Px1(a) Px2(b) (a , b) Rp

    Una propiedad muy interesante es que six1y x2son independientes entonces

    nuevas variables aleatorias g(x1 ) y h( x2), obtenidas como transformaciones de

    las anteriores, tambien los son.

    Tambien es interesante hacer notar que si dos vectores x1 y x2 son inde-

    pendientes no quiere decir que las componentes de x1 lo sean. Es decir en el

    caso multidimensional pueden aparecer muchos tipos de independencia como laindependencia condicional

    Definicion 6.3 (Independencia condicional )Dado el vector aleatoriox=(x1, x2,x3)

    se dice quex1 yx2 son condicionalmente independientes dado x3 cuando se ve-

    rifica quex1/x3 yx2/x3 son independientes.

    7 Momentos

    En este apartado se da la definicion de momento para poder describir de manera

    resumida el comportamiento de los vectores aleatorios.

    Definicion 7.1 (Momentos respecto al origen) Dado una vector aleatorio

    p-dimensional continuo x se denomina momento respecto al origen de orden

    (r1, . . . , rp), si existe, al valor dado por la expresion:

    ar1,...,rp(x) = E(xr11

    . . . xrp

    p ) =

    Rp

    xr11

    . . . xrp

    p f(x)dx

    donde f(x) es la funcion de densidad.

    Analogamente se definira para el caso discreto.

  • 8/10/2019 Vector Aleatorio(Complementario)

    7/22

    7

    Los momentos respecto al origen mas importantes son los orden uno que

    permiten definir el vector esperanza del vector aleatorio.

    Definicion 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensional

    xse denomina vector esperanza, E(x), al vector de componentes (1, . . . , p)t

    definidas por :

    i =

    x fxi(x) dx

    Es inmediato comprobar que:

    i = E(xi) = a0...,0,1i,0,...,0(x)

    .

    Cuando se trabaja con una funcion g(x) la esperanza de la nueva variable

    aleatoria se puede calcular mediante la expresion:

    E[g(x)] =

    Rp

    g(x) f(x) dx

    Entre las propiedades mas importantes del vector esperanza, si existe, se

    encuentran:

    1 Linealidad para transformaciones y=Ax+b, siendo A una matriz (n,p):

    E[ y]=A E[x]+b.

    2 E[g1(x1)] =Rp

    g1(x1) f(x)dx=Rp1

    g1(x1) f1(x1)dx1.

    3 Linealidad E[a1g1(x) + a2g2(x)] =a1 E[g1(x)] + a2 E[g2(x)] , siendoai R

    Otros momentos muy importantes son los centrados respecto al vector de

    medias. La expresiones que aparecen a continuacion se refieren al caso continuo,ya que el caso discreto se desarrolla de manera analoga a la realizada hasta este

    momento.

    Definicion 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensional

    continuo xse denomina momento centrado de orden(r1, . . . , rp), si existe, al va-

    lor dado por la expresion:

    mr1,...,rp(x) =

    Rp

    (x1 1)r1 . . . (xp p)rpf(x)dx

    donde f(x) es la funcion de densidad.

  • 8/10/2019 Vector Aleatorio(Complementario)

    8/22

    8 7 MOMENTOS

    Los momentos centrados de orden dos para una de las componentes ri= 2,

    cero para el resto,rj = 0 si j=i), dan lugar a lasvarianzasde cada componentexi, que se va a denotar por ii.

    V ar(xi) =ii = E(xi i)2 = m0...,0,2i,0,...,0(x)

    El momento centrado de orden (0 . . . , 0, 1i, 0, . . . , 0, 1j, 0, . . . , 0) se denomina

    covarianzaentre la componentes xi, xj , y se va a denotar por ij , tiene una gran

    importancia porque nos permite estudiar si las componentes estan relacionadas

    linealmente.

    Definicion 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleato-

    rio xse define su matriz de varianzas-covarianzas, si existe, como:

    = E[(x ) (x )t] =

    11 . . . 1p...

    . . . ...

    p1 . . . pp

    Entre sus propiedades destacan:

    Las matrices de varianzas-covarianzas son siempre matrices simetricas ysemidefinidas positivas =E[x xt] t

    Var (at x)=ata Var(Ax+b)= A At

    Tambien se pueden definir matrices de varianzas-covarianzas entre dos vec-

    tores aleatorios definidos sobre el mismo espacio probabilstico,

    Definicion 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional,y, se define su matriz de varianzas-covarianzas, si existe, como:

    Cov(x, y) = E[(x x) (y y)t] =

    x1,y1 . . . x1,yq...

    . . . ...

    xp,y1 . . . xp,yq

    Entre sus propiedades destacan:

    =Cov(x,x)

  • 8/10/2019 Vector Aleatorio(Complementario)

    9/22

    9

    Cov(x,y)= (Cov(y,x))t

    Cov(Ax,By)= A Cov(x,y) Bt

    Cov(x1+x2,y)= Cov(x1,y)+ Cov(x2,y)

    Si los vectores tienen la misma dimensionVar(x+y)=x+y= Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y)

    Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0,pero el recproco no tiene porque ser cierto.

    Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X,

    Y) en el que existen los momentos centrados de orden dos, se verifica que:

    E2[X Y]E(X2) E(Y2)

    ademas la igualdad se alcanza si y solo si existen dos numeros reales y, con

    al menos uno de ellos distinto de cero, tales queP[ X + Y= 0] = 1.

    Definicion 7.6 (Coeficiente de correlacion de Pearson) Dadas dos compo-

    nentesxi, xj de un vector aleatorio x se denomina coeficiente de correlacion dePearson entre esas componentes , ij a la expresion:

    ij = ij

    ii jj

    Las propiedades mas importantes del Coeficiente de correlacion de Pearson

    son:

    1.1ij1.

    2. ij alcanza los extremos si y solo sixjes una funcion lineal dexi, o al reves.

    3. Siij =0, se dice quexie xj son linealmente independientes, pero en general

    la independencia lineal no implica la independencia estadstica.

    4. Si xi e xj son independientes entonces son linealmente independientes.

    Definicion 7.7 (Matriz de correlacion de Pearson) Dado un vector aleato-

    rio xse denomina matriz de correlacion entre sus componentes a:

  • 8/10/2019 Vector Aleatorio(Complementario)

    10/22

    10 7 MOMENTOS

    R=

    1 . . . 1p...

    . . . ...

    p1 . . . 1

    Ejemplo 1.(Continuacion)

    La correlacion de Pearson entre X e Y es:

    = Cov(X , Y)

    XY=

    111

    por lo tanto tienen una relacion lineal muy pequena.

    Ejemplo.

    Sea X una v. a. con distribucion U(-1, 1), y definimos la variable Y=X2. Com-

    probar que X e Y son linealmente independientes pero no son independientes.

    E(X) =1

    1 x1

    2dx = 0.

    E(X.Y) = E(X. X2) = E(X3) =1

    1 x3

    1

    2dx = 0.

    Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 = 0por lo tanto X e Y son linealmente independientes pero no independientes puesto

    que Y = X2.

    Definicion 7.8 (Funcion generatriz de momentos) Dado un vector aleato-

    rio xp-dimensional la funcion generatriz de momentos,si existe, se define como:

    gx(t) = E(ett x) =

    Rp

    ett xf(x) dx

    Entre las propiedades mas interesantes de la funcion generatriz de momentos

    estan las siguientes:

    1. g(0)=1

    2. g cuando existe caracteriza la distribucion.

    3. Los vectores aleatoriasx,yson independientes si y solo si la funcion genera-

    triz de momentos conjunta es igual al producto de las funciones generatrices

    de las marginales.

    gx,y(t1 , t2) = gx(t1) gy(t2) (t1 , t2) entorno de0 Rp+q

    4. Six,yson vectores aleatorios independientes entonces la funcion generatriz

    de x+y verifica:

    gx+y(t) = gx(t) gy(t)

  • 8/10/2019 Vector Aleatorio(Complementario)

    11/22

    11

    Definicion 7.9 (Funcion caracterstica ) Dado un vector aleatorioxp-dimensional

    la funcion caracterstica se define como:

    x(t) = E(eitt x) =

    Rp

    eitt xf(x) dx

    Esta funcion existe siempre y caracteriza totalmente la distribucion del vec-

    tor aleatorio x. Presenta unas propiedades analogas a la funcion generatriz de

    momentos.

    Relacionada con la funcion caracterstica tienen gran importancia el siguien-

    te Teorema

    Teorema 7.2 (Teorema de Cramer- Wald) La distribucion de un vector alea-

    torio p-dimansionalxesta completamente determinada por el conocimiento del

    comportamiento de todas las variables unidimensionales que se puedan formar

    como combinacion lineal de sus componentes.

    8 Momentos Condicionados

    Estos momentos juegan un papel importante en el manejo de las distribucio-nes multivariantes , sobre todo cuando se imponen condiciones a algunas de sus

    componentes.

    Definicion 8.1 (Esperanza condicionada ) Dado un vector aleatorioxp-dimensional

    del que se consideran la particion(x1, x2)se define la esperanza del vectorx1 con-

    dicionada por el valorx2 de la segunda componente como

    E[x1/x2] =

    Rp1

    x1fx1/x2(x1)dx1

    En general esta expresion sera una funcion del valor dex2. Observese que se hace

    un abuso de notacion cuando x1tienen dimension mayor que 1, ya que en este caso

    habra que tener un vector esperanza , cuyas componentes son las integrales de

    las correspondientes componentes dex1. Por otro lado si considerox2 un vector

    aleatorio entonces la esperanza condicionada tambien sera un vector aleatorio.

    Por tanto podra hablarse de su esperanza, que verifica el siguiente resultado, si

    todas las esperanzas existen

    E[x1] =E[E[x1/x2]]

  • 8/10/2019 Vector Aleatorio(Complementario)

    12/22

    12 9 FUNCION DE UN VECTOR ALEATORIO

    La curva o superficie que a cada valor de x2 le hace corresponder E[x1/x2]

    se llama la curva o superficie general de regresion de x1 sobre x2. En el caso de

    que esta superficie sea lineal se tiene la regresion lineal.

    Definicion 8.2 (Varianza condicionada ) Dado un vector aleatorioxp-dimensional

    del que se consideran la particion(x1, x2) se define la varianza del vectorx1 con-

    dicionada por el valor x2 como V[x1/x2] = V1|2 como la matriz de varianzas

    respecto a la distribucion condicionada(x1/x2)

    En el caso bidimensional (x1, x2) se verifica que

    E(xi) =E[E(xi/xj)]

    V ar(xi) =E[V ar(xi/xj)] + V ar[E(xi/xj)]

    9 Funcion de un vector aleatorio

    En este apartado estudiaremos algunos metodos que nos permiten calcular la

    distribucion de probabilidad de funciones de un vector aleatorio.

    El metodo mas general consiste en obtener directamente la funcion de distribucion

    del nuevo vector aleatorio. Dado y = g(x), entonces

    Fy(y) = P(yy) = P[ x Rp/ g(x)y]

    Veamos algunos ejemplos sencillos en los que g es una funcion de R2 en R,

    es decir Z es una variable aleatoria.

    Ejemplo

    Sea (X, Y)un vector aleatorio continuo cuya funcion de densidad vale:

    f(x , y) = 1 si 0< x

  • 8/10/2019 Vector Aleatorio(Complementario)

    13/22

    13

    Cuandoz >1 la funcion de distribucion vale:

    F(z) =

    1/z

    0

    zx0

    dxdy +

    1

    1/z

    1

    0

    dxdy = 1

    2z + (1 1

    z) = 1 1

    2z

    Por lo tanto la funcion de distribucion es:

    F(z) =

    0 si z0z

    2 si 0< z1

    1 12z

    si z >1

    ,

    Cuando la funcion g verifique ciertas condiciones de regularidad es posible

    calcular directamente la funcion de densidad del vector aleatorio transformado.

    Proposicion 9.1 Dado un vector aleatorio continuo xcon funcion de densidad

    f(x), sea z=g(x) una transformacion que verifica en el conjunto soporte Sxlas

    siguientes condiciones :

    1. La funcion g:Rp

    R

    p es biyectiva,salvo un conjunto de Lebesgue de me-

    dida nula. es decir existen las transformaciones

    zi = gi(x), i= 1, . . . p

    xi= hi(z), i= 1, . . . p

    2. Todas las transformaciones son continuas.

    3. Existen y son continuas las derivadas parciales

    x

    z,

    z

    x

    J =

    (x)(z)

    es distinto de cero en el recorrido de la transformacion.

    Entonces se cumple que

    fz(z) =

    fx[h(z)] |J| si zSz0 en el resto

  • 8/10/2019 Vector Aleatorio(Complementario)

    14/22

    14 10 EJEMPLOS

    Corolario 9.1 Si el conjunto soporte S se puede expresar como una union finita

    de conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la funcion g

    es biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi y

    Jacobianos: Ji entonces

    fz(z) =

    ni=1

    fx[hSi(z)] |Ji| si zSz0 en el resto

    Las trasformaciones lineales y=Ax+b donde A es una matriz no singular,

    es decir, det(A)=0, son transformaciones biyectivas, su inversa es

    x= A1(y b)t

    y el jacobiano de la transformacion inversa vale J=det(A1).

    Aplicando el teorema anterior la funcion de densidad de y es:

    fy(y) = fx[A1 (y-b)t] |det(A1)|

    10 Ejemplos

    Ejemplo 1.

    Calcula el valor de c para que f(x, y) sea funcion de densidad.

    f(x, y) =

    c (x + y) si 0< x

  • 8/10/2019 Vector Aleatorio(Complementario)

    15/22

    15

    =

    0,5

    0

    0,75

    0

    (x + y) dy dx =

    0,5

    0

    (3x

    4 +

    9

    32) dx =

    15

    64

    Calcula las distribuciones marginales de X e Y.

    1. La marginal de la variable X es:

    f1(x) =

    f(x , y) dy =

    1

    0(x + y) dy = x +

    1

    2 si 0< x

  • 8/10/2019 Vector Aleatorio(Complementario)

    16/22

    16 10 EJEMPLOS

    y las densidades marginales son:

    f1(x) =

    x +

    1

    2 si 0< x

  • 8/10/2019 Vector Aleatorio(Complementario)

    17/22

    17

    =

    1

    0

    (x2

    2 +

    x

    3) dx =

    1

    3

    Cov(X , Y) = E(X Y) E(X) E(Y) = 1144

    La matriz de varianzas-covarianzas es :

    = 1

    144

    11 11 11

    La correlacion de Pearson entre X e Y es: =

    Cov(X , Y)

    XY=

    111

    por lo tanto tienen una relacion lineal muy pequena.

    Ejemplo 2.

    Comprueba que f(x, y) es funcion de densidad.

    f(x, y) =

    2

    3 si 0< x1 ; 0< y < x

    4

    3 si 1< x

  • 8/10/2019 Vector Aleatorio(Complementario)

    18/22

    18 10 EJEMPLOS

    1. La marginal de la variable X es:

    f1(x) =

    f(x , y) dy =

    x0

    2

    3dy =

    2x

    3 si 0< x1

    2x0

    4

    3dy =

    4(2 x)3

    si 1< x

  • 8/10/2019 Vector Aleatorio(Complementario)

    19/22

    19

    2.

    E(X2) =

    x2 f1(x) dx =

    1

    0

    x22x

    3 dx +

    2

    1

    x24(2 x)

    3 dx =

    25

    18

    La varianza de X es

    V ar(X) = E(X2) [E(X)]2 = 25162

    E(Y2) =

    y2 f2(y) dy =

    1

    0

    y2 2 (1 y) dy = 16

    La varianza de Y es

    V ar(Y) = E(Y2) [E(Y)]2 = 118

    El momento de orden (1, 1)

    E(X Y) =

    x y f(x , y) dy dx =

    1

    0

    x0

    x y2

    3dy dx+

    2

    1

    2x

    0

    x y4

    3dy dx =

    13

    36

    Cov(X , Y) = E(X Y) E(X) E(Y) = 1336

    109 1

    3 =

    1

    108

    La matriz de varianzas-covarianzas es :

    =

    25

    162

    1108

    1108

    1

    18

    Ejemplo 3.

    Sea (X, Y) un vector aleatorio discreto con la siguiente distribucion de probabi-

    lidad

    X\Y 0 1 2 31 0 3

    8

    2

    8

    1

    8

    2 18

    0 0 18

    Calcular las distribuciones marginales de X e Y.

    1. La v. a. marginal X toma los valores 1, 2 y sus probabilidades son:

    P1(X = 1) =3

    y=0

    P(1 , y) = 0 + 3

    8 +

    2

    8 +

    1

    8=

    3

    4

    P(1X = 2) =3

    y=0

    P(2 , y) = 1

    8+ 0 + 0 +

    1

    8 =

    1

    4

  • 8/10/2019 Vector Aleatorio(Complementario)

    20/22

    20 10 EJEMPLOS

    2. La v. a. marginal Y toma los valores 0,1,2, 3 con probabilidades:

    P2(Y = 0) =2

    x=1

    P(x , 0) = 0 +1

    8 =

    1

    8

    P2(Y = 1) =2

    x=1

    P(x , 1) = 3

    8 + 0 =

    3

    8

    P2(Y = 2) =2

    x=1

    P(x , 2) = 2

    8 + 0 =

    2

    8

    P2(Y = 3) =2

    x=1

    P(x , 3) = 1

    8 +

    1

    8 =

    2

    8

    Ejemplo 4.

    Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:

    f(x , y) =

    2 si 0< xy

  • 8/10/2019 Vector Aleatorio(Complementario)

    21/22

    21

    Ejemplo 5.

    Sea (X, Y) un vector aleatorio cuya funcion de densidad es:

    f(x , y) =

    1 si 0< x

  • 8/10/2019 Vector Aleatorio(Complementario)

    22/22

    22 10 EJEMPLOS

    Si u (0, 1] = Max(u-2, -u)=-u ; min(u, 2-u)=u.Si u (1, 2) = Max(u-2, -u)=u-2 ; min(u, 2-u)=2-u.

    Por lo tanto

    SU V ={(u , v) R2 /0 < u