Unidad IV: Variables Multidimensionales y Teoremas Límites.
-
Upload
macaria-cardenas -
Category
Documents
-
view
15 -
download
1
Transcript of Unidad IV: Variables Multidimensionales y Teoremas Límites.
Unidad IV:
Variables Multidimensionales
y Teoremas Límites
Transformaciones de variables
Variables aleatorias multidimensionales
Sumas de variables aleatorias
Variables
bidimensionales
Esperanzas y momentos
Covarianza
Coeficiente de Correlación
Indepen. y Condicionalidad
4.1 Variables bidimensionales
Cuando se está interesado no sólo en el estudio de una variable aleatoria individual sino que también en la relación entre dos o más variables aleatorias, aparecen las variables bidimensionales o n- dimensionales.
Dado un experimento, el par (X, Y) se llama variable aleatoria bidimensional si cada Xi, i = 1,2
es una variable aleatoria.
El par (X1, X2 ) es conjuntamente continuo si cada Xi,i=1,2 es una variable aleatoria continua y es conjuntamente discreto si cada Xi, es una variable aleatoria discreta.
Si una variable es discreta y la otra es continua, entonces (X1, X2) es un vector aleatorio mixto.
Si el par (X1, X2) es discreto, entonces su función
de probabilidades es de la forma:
22122112121 ),(),(),( xxxXxXPxxp xx ,
1),()
),(0),()
)2,1(2121
2212121
xx
xx
xx
xxpii
xxxxpi
Axx
xx xxpAP)2,1(
2121 ),()(
Si A Rx1x2 entonces la probabilidad del evento A es:
Las funciones de probabilidades individuales de las variables X1 y X2 se llaman probabilidades
marginales X1 y X2, respectivamente.
2 21212 22111111 ),(),()()( x xxxx xxpxXxXPxXPxp
- Distribución marginal de X1:
1 21211 22112222 ),(),()()( x xxxx xxpxXxXPxXPxp
- Distribución marginal de X2:
Si el par (X1, X2) es continuo, entonces su función
de densidad de probabilidad debe satisfacer las siguientes condiciones:
1),()
),(0),()
212121
2212121
- -
dxdxxxfii
xxxxfi
xx
xx
Si A = {(x1, x2): a1 < x1 < b1 , a2 < x2 < b2},
entonces: 1
122 122121222111 ),(),()(
ba
ba xxxx ddxxfbXabXaPAP
para todo a1 , a2 , b1 , b2
Densidades marginales para X1 y X2
2212111 ),()( dxxxfxf xxx
- Densidad marginal para X1:
- Densidad marginal de X2:
1212122 ),()( dxxxfxf xxx
Las función de distribución, F(t1 ,t2), para una
variable aleatoria bidimensional (X1 , X2) está dada
por:2
21221121 ),(),(),( tttXtXPttF ,
Si la función de distribución es continua y la segunda derivada parcial de F(x1 ,x2) existe, la función de densidad
bivariante de (X1, X2) es:
),(),( 2121
2
21 xxFxx
xxf
1 2122121 ),(),(
x xdtdtttfxxF
Ejemplo: Consideremos las v.a. bidimensional (X, Y) con función de probabilidad conjunta
X\Y -3 2 4 1 0.1 0.2 0.2 3 0.3 0.1 0.1
1.- Calcule la probabilidad conjunta de que:
a) Y no supere a 2 y X supere a 1.
b) Y no supere a X.
2.- Las distribuciones marginales de X e Y.
3.- Las Esperanzas y Varianzas de las v.a. X e Y.
Solución
4.03,32,3
3,32,32,1
pp
YXPYXPYXP1a)
5.02,33,33,1
0
ppp
YXPYXP1b)
x 1 3 p(x) 0.5 0.5
y -3 2 4
P(y) 0.4 0.3 0.3
2)
24.9)(;6.0y 1;2 YVYEXVXE3)
Ejemplo: Supongamos que la f.d. conjunta de X e Y está dada por
0,0,2, 2 yxeeyxf yx
Determine las marginales.
0
22
0
2
0,22
0,2
yedxeeyf
xedyeexf
yyx
xyx
Calcular las siguientes probabilidades:
a
ayx
a
aa
xa
e
dydxeedydxyxf
edxedxxfaXP
1
2),(
1)(
0 0
2
0 0
00
YXPy 1,1; YXPaXP
21
1
0
211
0 1
2
1
221,1
ee
dyeedydxeeYXP yyx
3132122
122
0
3
0
2
0
2
0 0
2
dyedye
dyeedxdyeeYXP
yy
yyy
yx
Ej.: Consideremos las v.a. X e Y, con f.d. conjunta
caso otrocualquier en 0
10,10 ,
yxyxyxf
Determine la función de distribución de (X,Y)
Obviamente si
0, entonces ,0y 0 yxFyx
yxxy
dsdttsyxFyxy x
21
,10 ,10
0 0
yxy
dsdttsyxFyxy
21
,10 ,1
0
1
0
yxx
dsdttsyxFyxx
21
,1,101
0 0
1,1,11
0
1
0
dsdttsyxFyx
11 1
1,10 21
10,1 21
10,10 2
0y ó 0 0
,
,yx
yxxx
yxyy
xxyxxy
x
yxF
4.2 Esperanzas y momentos
Definición: Sea YXg , una función real valuada de las variables aleatorias X e Y. Entonces la Esperanza de YXg , , que denotaremos por YXgE , , se define como
dxdyYXfYXgYXgE
YXpYXgYXgE
,,,
,,,
Sea g(X, Y) = Xj Yk, j, k ≥ 0, tenemos E[Xj Yk] llamado momento conjunto (j, k) de la variable aleatoria bidimensional (X, Y):
0,;][ kjYXEm kjjk
Los momentos conjuntos centrales de X e Y se pueden definir como:
])()[( kY
jXjk YXEn
Utilizando
kY
jX YXYXg )()(),(
La Covarianza entre las variables X e Y
)])([(),( YXXY YXEYXCov
La Correlación o Coeficiente de Correlación entre las variables X e Y
XX
XYXY
Se puede probar que es invariante por traslaciones de ejes; esto es,
XY
XYdcYbaX ),( 1XY
X\Y -3 2 4 1 0.1 0.2 0.2 3 0.3 0.1 0.1
24.9)(;6.0
1;2
YVYE
XVXE
01.0431.0233.033
2.0412.0211.031
,
yxxypXYE
2.1),( YXXYEYXCov
394.004.312.1,
YXXY
YXCov
4.3 Independencia y Condicionalidad
Dada una variable aleatoria bidimensional (X1, X2) con función de
distribución F(x1, x2) y marginales Fx1(x1) y Fx2(x2), diremos que X1 y
X2 son independientes si:
)()(),( 221121 xFxFxxF xx
)()(),( 221121 xfxfxxf xxy
Teorema 4.3 Sean X1 y X2 variables aleatorias
independientes. Si Y1=G(X1) e Y2=H(X2) son funciones
monótonas de X1 y X2, respectivamente, entonces Y1 e Y2 son
variables aleatorias independientes.
Teorema 4.4 Sean X1 y X2 variables aleatorias independientes. Si
G(X1) y H(X2) son sólo funciones de X1 y X2, respectivamente,
entonces:
)]([)]([)]()([ 2121 XHEXGEXHXGE
Teorema 4.5 Si X1 y X2 son variables independientes, entonces
02121 XXXX
Sea (X1, X2) una variable aleatoria bidimensional. Entonces:
a) Si (X1 ,X2) es conjuntamente discreta, definimos la función de
probabilidad condicional de X2 dada X1=x1
0)()(
),()/()/( 11
11
2112121/2 xp
xp
xxpxxpxxp x
xxx si ;
y es cero en otro caso
b) Si (X1 ,X2) es una variable aleatoria continua, definimos la función
de densidad condicional de X2 dada X1=x1
0)()(
),()/()/( 11
11
2112121/2 xf
xf
xxfxxfxxf x
xxx si ;
y es cero en otro caso
Análogamente, se pueden definir las distribuciones condicionales de X1 dada X2=x2.
• Si X1 y X2 son variables aleatorias independientes
)(]/[ 1221 XExXXE
cuando la esperanza de X1 existe.
La media y varianza condicional para una variable bidimensional continua (X1, X2).
211211
22112 ])/[()/()/( xXXExXXExXXVar
212112 )(2]/[ dxxxfxxXXE
caso otrocualquier en 0
2,1,1,2 si 41 111
xxpX
Ejemplo: Consideremos la v.a.d. X1 con f.de p.
es y de conjunta p. f.de la Entonces . 21212 XXXX Y definamos
caso otrocualquier en 0
4,2,1,1,1,1,4,2, si 41, 21
21xx
xxp
048
41
41
48
21 XXE
es.dependient claramente
son y variableslas embargo,Sin .0luegoy 0, entonces ,0 comoy
2121X
211XX
XXCovXE
X
4.4 Transformaciones de variables
Considerando una variable aleatoria bidimensional (X1, X2) con
densidad fx1x2 (x1, x2) y sea:
)),(),,((),( 21221121 XXGXXGYY
una transformación continua y biunívoca.
Suponiendo que G1 y G2 admiten derivadas parciales continuas y
considerando una región A del plano x1x2 tal que el Jacobiano de la
transformación es distinto de cero, entonces, en todos los puntos de A existe la transformación inversa de (Y1,Y2)
)),(),,((),( 21221121 YYHYYHXX
la cual es continua y uniforme en una región B del plano y1y2.
Ejemplo Consideremos las variables aleatorias X1 y X2 con función de densidad conjunta f(x1,x2) = e-(x1+x2) , x1 > 0, x2 > 0.
Determinemos la función de densidad de Y = X1/(X1+X2).
1
211 )/(
xz
xxxy
0)/(),(
),( 2211
21
xxxxx
zyJ
La transformación inversa está dada por:
yyzzx
zx
/)(2
1
siendo el valor absoluto del Jacobiano de la inversa es: |J1| = |z/y2|
Definimos la siguiente transformación:
- La función densidad conjunta de Y y Z es:
10,0,)/(/)/)(,(),( /2221, yzeyzyzyyzzzfzyg yz
XXZY
0 0
/2, )/(),()( dzeyzdzzygyg yzZYY
- La marginal de Y es:
Haciendo el cambio de variable u = z/y se tiene que
0
10,1)2()( yduueyg uY
es decir, Y tiene distribución uniforme en (0,1).
Ejemplo Sean X1 y X2 variables aleatorias independientes, cada una con distribución uniforme sobre el intervalo (0,1). Determinemos la función de densidad de Y = X1+X2.
10,101)()(),( 21221121 xxxfxfxxf XX si ;
Considerando la transformación uno a uno
2
21
xz
xxy
- La transformación inversa está dada por:
zx
zyx
2
1
siendo su Jacobiano J1 = 1
Como X1 y X2 son variables aleatorias independientes, entonces la densidad conjunta de X1 y X2 es el producto de las marginales correspondientes; esto es,
- La función densidad conjunta de Y y Z es:
1,10,1),(),(21, zyzzzzyfzyg XXZY
casos otros en
si
0
1),1,0(1),(,
zyzzzyg ZY
o bien
Para obtener la densidad marginal de Y integramos separadamente en: y ≤ 0 ; 0 <y < 1 ; 1 <y < 2 e y ≥ 2.
20
212
10
00
)(1
1
0
y
yydz
yydz
y
yg
y
y
Y
si
si
si
si
Ejemplo
Supongamos que X1, X2 y X3 son variables aleatorias independientes, cada una con distribución exponencial de parámetro = 1. Calculemos la función de densidad de Y = (X1+X2+X3)/3.
Considerando la siguiente transformación uno a uno
33
22
3211 3/)(
xy
xy
xxxy
0,0,0),,( 321)321(
321 xxxexxxf xxx ,
Como las variables son independientes, la densidad conjunta está dada por:
- La transformación inversa está dada por:
33
22
3211 3
yx
yx
yyyx
siendo su Jacobiano J1 = 3
- La densidad conjunta de Y1, Y2 e Y3 es:
0,0,033),,( 323211
321 yyyyyeyyyf y ;
0,2
273)( 1
31
21
13
0
213
023
1311
yeydydyeyf yy yy yY
y la densidad marginal de Y1 = (X1 + X2 + X3)/3
Ejemplo Sean X1 y X2 variables aleatorias independientes, cada una con distribución Poisson con parámetro común . Queremos determinar la función de probabilidades de Y = X1+X2.
Definiendo la siguiente transformación uno a uno:
22
211
XY
XXY
Cuya transformación inversa es
22
211
YX
YYX
Como X1 y X2 son independientes, entonces la función de probabilidad conjunta es
,...1,0,...;1,0,!!
,...1,0,...;1,0),()(),(
212
2
1
1
21221121
xx
x
e
x
e
xxxpxpxxp
xx
XX
La función de probabilidad conjunta de Y1 e Y2 es
2121221
12
221212121),(
!)!(),(),( YY
y
XXYY Ryyyyy
eyyypyyp
}0:),{( 122121yyyyR YY
donde
La función de probabilidad de Y1 = X1+X2
,...1,0!
)2(
!)!()( 1
1
121
02 221
12
11
yy
e
yyy
eyp
yy
y
y
Y ,
Por lo tanto, Y1 = X1+X2 es una variable aleatoria con distribución Poisson de parámetro 2.
4.5 Variables aleatorias multidimensionales
X = (X1,… Xn) es un vector aleatorio continuo si cada
una de sus componentes Xi, i = 1,…,n es una variable
aleatoria continua. Análogamente, diremos que X es discreto si cada Xi, i = 1,….,n, es una variable aleatoria
discreta. En cada caso y según corresponda, podemos asociar a X una función de probabilidades o una función de densidad de probabilidades, respectivamente.
Si X es discreta, la función de probabilidad asociada es
nnnnX xxxXxXPxp ),...,(),,...,()( 111
La función de probabilidades para la variable n-dimensional debe satisfacer las reglas análogas al caso unidimensional:
1)()
),...,(,0)() 1
xpii
xxxxpi
X
nnX
Dada pX(x), podemos calcular las marginales, haciendo
},1;:{),()( 1 njijxRxpxp jiR XiiX donde
},1;:{,)(),(1
nkijkxRxpxxp kR XjijXiX con
También se puede determinar la función de probabilidades conjuntas de dos o más componentes, a partir de pX(x).
Las variables aleatorias Xi, i=1,…,n, son idénticamente distribuidas si cada una de ellas tiene la misma distribución de probabilidades.
Las variables aleatorias Xi, i=1,…,n son independientes si y sólo si
discreta nteconjuntame es cuando
continua nteconjuntame es cuando
Xxxpxp
Xxxfxf
nn
iiiXX
nn
iiiXX
,)()(
,)()(
1
1
Teorema 4.5 Si X1,…,Xn son variables aleatorias
independientes y si Y1=G1(X1),…,Yn=Gn(Xn), son funciones
de X1,…,Xn, respectivamente, entonces Y1,…,Yn son
variables aleatorias independientes.
Teorema 4.6 Si X1,X2,…,Xn son variables aleatorias
independientes y si Y1=G1(X1,…,Xr), Y2=G2(Xr+1,…,Xp),…,
Ym=Gm(Xk+1,…,Xn), donde Yj, j=1,…,m son funciones de
subconjuntos mutuamente excluyentes de X1,X2,…,Xn.
Entonces Y1,Y2,…,Ym son variables aleatorias
independientes.
4.6 Distribución X2 , t y F
La distribución X2 es un caso especial de la distribución Gamma. Si consideramos la variable aleatoria Z con distribución normal estándar, entonces la función de distribución de U = Z2, para todo t ≥ 0 está dada por:
1)(21)(2)()()( 2 ttFtZtPtZPtF ZU
y su función de densidad
0,)2()()()( 2/2/12/1 tettfttFdt
dtf t
ZUU
Teorema 4.7 Si Z1,…,Zn son variables aleatorias normales
estándar, independientes, entonces:
2)(
2niZU óndistribuci tiene
Ejemplo Supongamos que X es una variable aleatoria con función de densidad
0,4
1)( 2/ xxexf x
X
entonces la función de densidad de X corresponde a la de una Chi-cuadrado con 4 grados de libertad.
2/4
2/12/42/
2)2/4(4
1)(
xx
Xex
xexf
Teorema 4.8 Si X1,…,Xn son variables aleatorias
independientes, cada una con distribución X2 con v1,…,vn
grados de libertad, respectivamente, entonces:
libertad. de grados con cuadrado-Chi óndistribuci tiene ii vXY
Teorema 4.9 Sean X1 y X2 variables aleatorias independientes.
2121
221
211 ,~~ vvvv XvvXXX distribuye se entonces, y Si
La Distribución t-Student: Sea Z una variable aleatoria normal estándar, y X una variable que se distribuye Chi-cuadrado con v grados de libertad. Si Z y X son independientes, entonces la variable aleatoria T definida por
vX
ZT
/
tiene distribución t-Student con v grados de libertad. La notación usual es Y ~ tv.
Siendo su función de densidad
tvtvv
vtf
vT ,)]/(1[
1
)2/(
)2/)1(()(
2/)1(2
La Distribución F de Snedecor: Sean X1 y X2, variables
aleatorias Chi-cuadrado con v1 y v2 grados de libertad,
respectivamente. Si X1 y X2 son independientes, la variable
aleatoria
12
21
22
11
/
/
v
v
X
X
vX
vXF
Siendo su función de densidad
0,)1(
22
2)(
2/)21(
2
121
121
2
1
2
121
tt
vvvv
tvvvv
tfvv
vv
v
F
El valor esperado de F es:
2][
2
2
v
vFE
La varianza de F es:
)4()2(
]2
1[2][
22
2
1
222
vv
vv
vFVar
4.7 Sumas de variables aleatorias Si X1,… Xn son variables aleatorias independientes e
idénticamente distribuidas, diremos que ellas conforman una muestra aleatoria.
Teorema 4.10 Sean X1,…,Xn variables aleatorias
independientes e idénticamente distribuidas, con funciones generadoras de momentos MX1(t),…,MXn(t), respectivamente.
Si definimos:
n
iiXY
1
Entonces la función generadora de momentos de Y es:
nXY tMtM )]([)(
Ejemplo
tenemos que
Supongamos que X1,…,Xn son variables aleatorias Bernoulli
independientes, idénticamente distribuidas, cada una con parámetro p. Entonces Mxi(t)=q + pet, i=1,…,n.
Si definimos:
n
iiXY
1
ntnXY peqtMtM )()]([)(
Ejemplo Supongamos que X1,…,Xn son variables aleatorias normales
independientes, con medias 1,…,n y varianzas 12,…,n
2
respectivamente. Entonces
)2/exp()( 22iiiX tttM
Si definimos
sarbitraria constantes con i
n
iii aXaY ,
1
Entonces tenemos que
)2/exp()()( 222
1iiii
n
iiiXY atattaMtM
Entonces
ji
jiji
n
iiiY
n
iiiY XXCovaaaa ),(2,
1
222
1
Teorema 4.11 Sean X1,…,Xn variables aleatorias con
medias 1,…,n y varianzas 12,…,n
2 respectivamente.
Definiendosarbitraria constantes con i
n
iii aXaY ,
1
Teorema 4.12 Sean X1,…,Xn variables aleatorias no
correlacionadas. Si
n
iiiY
n
iiiY
n
iii aaXaY
1
222
11
, y entonces
Teorema 4.13 Sean X1,…,Xn variables aleatorias
independientes e idénticamente distribuidas, cada una con media y varianza 2 . Si
22
1
, nnXY YY
n
ii
y entonces
4.8 Máximos y mínimos
Sean X1,…,Xn, n variables aleatorias independientes e
idénticamente distribuidas con función de distribución FX(x). Si
ordenamos las variables aleatorias en forma ascendente de acuerdo a su magnitud, podemos definir dos funciones de interés primordial en estadística. Ellas son el máximo y el mínimo, denotadas por:
}
}
n
nn
XXMínimoX
XXMáximoX
,,{
,,{
1]1[
1][
- La función de distribución acumulada del máximo de n variables aleatorias independientes e idénticamente distribuidas es:
nX tFtG ))(()(
• Si las variables son continuas, podemos obtener la función de densidad del máximo.
)())(()(
)( 1 tftFndt
tdGtg X
nX
- La función de distribución acumulada del Mínimo de n variables aleatorias independientes e idénticamente distribuidas es:
nX tFtH )](1[1)(
• Si las variables son continuas, la función de densidad del mínimo es:
)())](1[()(
)( 1 tftFndt
tdHth X
nX
Ejemplo
Supongamos que X1,…,Xn son n variables aleatorias
independientes, cada una con distribución exponencial de parámetro >0. La función de densidad del máximo y mínimo respectivamente son:
y
0,)1()( 1 teentg tnt si
0,)]1(1[()( 1 teneenth tntnt si