Libro_basico_-_teoria_de_la_probabilidad_2011

267
 Notas de Probabilidades y Estadística Capítulos 1 al 12 Víctor J. Yohai [email protected] Basadas en apuntes de clase tomados por Alberto Déboli, durante el año 2003 Versión corregida durante 2004 y 2005, con la colaboración de María Eugenia Szretter 5 de Marzo de 2008

Transcript of Libro_basico_-_teoria_de_la_probabilidad_2011

Notas de Probabilidades yEstadsticaCaptulos 1 al 12Vctor J. [email protected] en apuntes de clase tomados por Alberto Dboli, durante el ao 2003Versin corregida durante 2004 y 2005, con la colaboracin de Mara Eugenia Szretter5 de Marzo de 20082ndice general1. Espacios de Probabilidad. 71.1. Experimentos aleatorios. Algunas consideraciones heursticas. 71.2. Axiomas de probabilidad. . . . . . . . . . . . . . . . . . . . . 81.2.1. lgebras. . . . . . . . . . . . . . . . . . . . . . . . 81.2.2. Espacios de Probabilidad. . . . . . . . . . . . . . . . . 101.3. lgebra generada por una familia de conjuntos. . . . . . . 181.4. Espacios de probabilidad nitos o numerables. . . . . . . . . . 211.5. Probabilidad condicional. . . . . . . . . . . . . . . . . . . . . 231.6. Independencia de eventos.. . . . . . . . . . . . . . . . . . . . 252. Variable Aleatoria. 312.1. Concepto de variable aleatoria. . . . . . . . . . . . . . . . . . 312.2. Espacio de probabilidad asociado a una variable aleatoria. . . 322.3. Funcin de distribucin de una variable aleatoria. . . . . . . . 353. Variables aleatorias discretas y continuas. 413.1. Variables aleatorias discretas. . . . . . . . . . . . . . . . . . . 413.2. Ejemplos de distribuciones discretas. . . . . . . . . . . . . . . 433.2.1. Distribucin Binomial. . . . . . . . . . . . . . . . . . . 433.2.2. Distribucin Binomial Negativa (o Distribucin de Pas-cal). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.2.3. Distribucin Geomtrica. . . . . . . . . . . . . . . . . 463.2.4. Distribucin Hipergeomtrica. . . . . . . . . . . . . . . 473.2.5. Distribucin de Poisson.. . . . . . . . . . . . . . . . . 483.2.6. Grco de la funcin de distribucin asociada a unavariable aleatoria discreta. . . . . . . . . . . . . . . . . 493.3. Variables aleatorias absolutamente continuas. . . . . . . . . . 493.4. Ejemplos de distribuciones continuas. . . . . . . . . . . . . . . 533.4.1. Distribucin uniforme en un intervalo. . . . . . . . . . 533.4.2. Generacin de distribuciones a partir de la distribu-cin uniforme en [0,1] . . . . . . . . . . . . . . . . . . 553.4.3. Distribucin Normal N, 2. . . . . . . . . . . . . . 593.4.4. Distribucin Exponencial.. . . . . . . . . . . . . . . . 6233.5. Variables aleatorias mixtas. . . . . . . . . . . . . . . . . . . . 654. Vectores aleatorios. 694.1. Denicin de vector aleatorio. . . . . . . . . . . . . . . . . . . 694.2. Espacio de probabilidad inducido. . . . . . . . . . . . . . . . . 704.3. Funcin de distribucin conjunta de un vector aleatorio. . . . 714.4. Algunas propiedades de vectores aleatorios. . . . . . . . . . . 784.5. Independencia de variables aleatorias. . . . . . . . . . . . . . 804.5.1. Algunas consideraciones heursticas. . . . . . . . . . . 804.5.2. Conservacin de la independencia por transformaciones.864.5.3. Independencia de vectores aleatorios. . . . . . . . . . . 865. Vectores aleatorios discretos y continuos. 895.1. Vectores aleatorios discretos. . . . . . . . . . . . . . . . . . . 895.1.1. Funcin de densidad de probabilidad conjunta. . . . . 915.1.2. Caracterizacin de la funcin de densidad marginalasociada a un subconjunto de variables. . . . . . . . . 925.2. Ejemplos de vectores aleatorios con distribucin discreta. . . 945.2.1. Distribucin Multinomial.. . . . . . . . . . . . . . . . 945.2.2. Distribucin Hipergeomtrica Multivariada.. . . . . . 965.3. Vectores Aleatorios de tipo absolutamente continuo. . . . . . 986. Transformaciones de variables y vectores aleatorios. 1056.1. Transformaciones montonas de variables aleatorias. . . . . . 1056.1.1. Distribucin Normal . . . . . . . . . . . . . . . . . . . 1076.2. Transformaciones inyectivas de vectores aleatorios. . . . . . . 1096.3. Algunas aplicaciones a la distribucin normal. . . . . . . . . . 1126.4. Transformaciones no inyectivas . . . . . . . . . . . . . . . . . 1146.4.1. Distribucin Chi-cuadrado con un grado de libertad. 1156.5. Algunas distribuciones complementarias. . . . . . . . . . . . . 1166.5.1. Distribucin Gamma. . . . . . . . . . . . . . . . . . . 1166.5.2. Distribucin beta. . . . . . . . . . . . . . . . . . . . . 1216.5.3. Distribucin Chi-cuadrado. . . . . . . . . . . . . . . . 1236.5.4. Distribucin t de Student . . . . . . . . . . . . . . . . 1237. Esperanza Matemtica. 1257.1. Integral de Riemann-Stieltjes. . . . . . . . . . . . . . . . . . . 1257.1.1. Denicin de la integral. . . . . . . . . . . . . . . . . . 1257.2. Denicin de Esperanza Matemtica. . . . . . . . . . . . . . . 1287.2.1. Algunas consideraciones heursticas. . . . . . . . . . . 1287.2.2. Esperanza de una variable aleatoria discreta. . . . . . 1297.2.3. Denicin general de esperanza matemtica. . . . . . 1297.2.4. Esperanza matemtica para una variable absolutamentecontinua. . . . . . . . . . . . . . . . . . . . . . . . . . 13347.2.5. Algunas propiedades de la esperanza matemtica . . . 1347.3. Esperanza del producto de variables aleatorias independientes. 1497.4. Una frmula general para la esperanza de una variable trans-formada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1517.5. Esperanza de distribuciones simtricas . . . . . . . . . . . . . 1547.6. Mediana de una variable aleatoria. . . . . . . . . . . . . . . . 1587.7. Varianza de una variable aleatoria. . . . . . . . . . . . . . . . 1617.7.1. Esperanzas y varianzas de distribuciones normales . . 1637.8. Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1657.9. Distribucin Normal Bivariada.. . . . . . . . . . . . . . . . . 1678. Teora de la Prediccin. 1738.1. Error cuadrtico medio y predictores ptimos. . . . . . . . . . 1738.2. Predictores constantes. . . . . . . . . . . . . . . . . . . . . . . 1758.3. Predictores lineales. . . . . . . . . . . . . . . . . . . . . . . . 1769. Esperanza y distribucin condicional. 1799.1. Caso discreto. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1799.2. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . 1879.3. Caso continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . 1909.4. Varianza condicional . . . . . . . . . . . . . . . . . . . . . . . 19210.Convergencia de Variables Aleatorias. 19510.1. Convergencia de funciones. . . . . . . . . . . . . . . . . . . . 19510.2. Convergencia casi segura y en probabilidad.. . . . . . . . . . 19610.3. Preservacin de la convergencia por funciones continuas. . . . 19910.4. Ley dbil de los grandes nmeros. . . . . . . . . . . . . . . . . 20410.5. Ley fuerte de los grandes nmeros. . . . . . . . . . . . . . . . 20710.6. Teorema de la Convergencia Dominada . . . . . . . . . . . . . 21311.Convergencia en Distribucin. 21711.1. Denicin de convergencia en distribucin. . . . . . . . . . . . 21711.2. Funciones caractersticas. . . . . . . . . . . . . . . . . . . . . 22011.2.1. Variables aleatorias complejas. . . . . . . . . . . . . . 22011.2.2. Denicin de funcin caracterstica y propiedades. . . 22111.3. Momentos y funcin caracterstica. . . . . . . . . . . . . . . . 22611.3.1. Derivacin dentro del signo esperanza.. . . . . . . . . 22611.3.2. Derivadas de la funcin caracterstica y momentos. . . 22711.4. Funcin caracterstica de una distribucin normal. . . . . . . 22911.5. Teorema Central del Lmite. . . . . . . . . . . . . . . . . . . . 23311.5.1. Caso de variables independientes idnticamente dis-tribuidas . . . . . . . . . . . . . . . . . . . . . . . . . 23311.5.2. Teorema Central del Lmite para variables no idnti-camente distribuidas. . . . . . . . . . . . . . . . . . . . 236511.5.3. Una Aplicacin a la Binomial. . . . . . . . . . . . . . . 24011.6. Teorema de Slutsky. . . . . . . . . . . . . . . . . . . . . . . . 24211.7. Aplicacin a intervalos de conanza. . . . . . . . . . . . . . . 25311.8. Un teorema til de Convergencia en Distribucin. . . . . . . 25512.Procesos de Poisson. 25712.1. Procesos de punto. . . . . . . . . . . . . . . . . . . . . . . . . 25712.2. Axiomtica de los Procesos de Poisson . . . . . . . . . . . . . 25712.3. Distribucin de un proceso de Poisson. . . . . . . . . . . . . . 25912.4. Tiempos de espera . . . . . . . . . . . . . . . . . . . . . . . . 26412.5. Procesos de Poisson en el plano. . . . . . . . . . . . . . . . . 2656Captulo 1Espacios de Probabilidad.1.1. Experimentos aleatorios. Algunas considera-ciones heursticas.Se llamar experimento aleatorio a un experimento tal que (i) no se puedepreveer el resultado de un solo experimento, (ii) si se repite el experimentovarias veces, la frecuencia con la cual el resultado est en un conjunto Aconverge a un nmero.Ejemplo 1.1 El experimento consiste en arrojar una moneda. En este casoel conjunto de todos los posibles resultados ser = {0, 1},0 corresponde a ceca y 1 a cara. Si se repite experimento muchas veces, lafrecuencia con que sale por ejemplo cara, tiende a 0.5Ejemplo 1.2 El experimento consiste en lanzar un dado. En este caso elconjunto de todos los posibles resultados ser = {1, 2, 3, 4, 5, 6}.Si se tira el dado muchas veces, por ejemplo la fecuencia con que el resultadoest en el conjunto A ser #A/6, donde #A representa el cardinal deA.Ejemplo 1.3 El experimento consiste en lanzar una jabalina y registrar lamarca obtenida. En este caso el conjunto de todos los posibles resultados serel conjunto de reales positivos y la frecuencia con que el resultado est, porejemplo en un intervalo [a, b], depender del atleta.7Ejemplo 1.4 Se elige al azar un alumno de primer grado de un colegio yse anota su peso en kilos, x y la altura en metros y En este caso = {(x, y) R2: x > 0, y > 0}.Como puede apreciarse los resultados pueden conformar un conjuntonito o innito de cualquier cardinalidad.Supongamos ahora que se hacen n repeticiones del experimento aleatorio.Si A , sea Cn(A) el nmero de veces que el resultado est en A, luego lafrecuencia relativa del conjunto A se dene porfn (A) = Cn (A)n.En el caso de un experimento aleatorio, cuando n crece, esta frecuencia seaproxima a un nmero que se llamar probabilidad de A y que denotaremospor P(A).Claramente0 fn (A) 1,de manera queP (A) = lmnfn (A) ,y entonces0 P (A) 1.Como veremos, en algunos casos, no se puede denir la probabilidad paratodo subconjunto de resultados.Para precisar este concepto y estudiar sus propiedades formularemos lateora axiomtica de probabilidades.1.2. Axiomas de probabilidad.En primer lugar deniremos algunas propiedades que tendr la familiade todos los conjuntos para los cuales est denida su probabilidad. Estonos lleva al concepto de -lgebra.1.2.1. lgebras.Sea un conjunto. Deniremos el conjunto partes de , por P() ={A : A }. Dado un conjunto A, denotaremos por Acel complemento deA.Denicin 1.1 Sea una familia A de subconjuntos de , es decir A P().Se dice que A es una -lgebra sobre si satisface las siguientespropiedades.8A1. A.A2. Dado A A se tiene Ac A.A3. Sea A1, . . . , An, . . . una sucesin de elementos de A. EntoncesA = [i=1Ai A.Propiedades de lgebrasPropiedad 1.1 A.Demostracin. Resulta de A1 y A2. 2Propiedad 1.2 Si A1, ..., An son elementos de A entoncesn[i=1Ai A.Demostracin.Para ver esto supongamos que Ai A ; i = 1, 2, ..., n. Probaremos queA =n[i=1Ai A.Denamos una sucesin numerable (Bi)i1 agregando el conjunto de lasiguiente maneraBj = Aj, 1 j n,Bk = si k > n.Entonces por ser A una -lgebra se tendr que Si=1Bi A y por lo tantoA =n[i=1Ai = [i=1Bi A. 2Propiedad 1.3 Si A es una -lgebra, y A1, ..., An, ... es una sucesin deelementos de A entonces A = Ti=1Ai A.Demostracin. Esto resulta de que A = ( Si=1Aci)c. 29Propiedad 1.4 Si A es una -lgebra, y A1, ..., An son elementos de Aentonces A =nTi=1Ai A.Demostracin. Se demuestra igual que la Propiedad 1.2. 2Propiedad 1.5 Si A es una -lgebra, y A1 y A2 son elementos de A,entonces A1A2 A.Demostracin. En efecto A1A2 = A1 Ac2 A. 2Propiedad 1.6 La lgebra sobre ms chica posible esA0 = {, },y la ms grande esA1 = P () .Luego si A es una -lgebra sobre , se tendrA0 A A1. 2Observacin. En el contexto de la teora de la medida, un elemento de lalgebra A se llama un conjunto medible.Como veremos en la prxima subseccin, la probabilidad estar denidapara los elementos de una lgebra.1.2.2. Espacios de Probabilidad.Denicin 1.2 Un espacio de probabilidad es una terna (, A, P) donde es un conjunto, A es una -lgebra sobre , y P : A [0; 1] es unafuncin que satisface:1. P() = 1.2. ( -aditividad). Si (An)n1 es una sucesin de elementos de A disjuntosdos a dos (Ai Aj = , si i 6= j), entoncesP( [i=1Ai) = Xi=1P(Ai).Observaciones.101. El conjunto se denomina espacio muestral y se interpreta como elconjunto de resultados posibles del experimento, los elementos de Ase denominan eventos, y corresponden a los subconjuntos de paralos cuales la probabilidad est denida. Finalmente P se denominafuncin de probabilidad, y dado A A, P(A) se interpreta como laprobabilidad de que el resultado del experimento est en A.2. En el contexto de la teora de la medida, la terna (, A, P) correspondea un espacio de medida donde la medida Pasigna el valor uno alespacio total.3. Si queremos formalizar la idea intuitiva de la probabilidad como lmitede la frecuencia relativa es importante observar que la frecuenciatiene la propiedad de -aditividad. En principio veamos que deberaser aditivaSean A1, A2, ..., Ak eventos disjuntos tomados de a dos, esto es, AiAj = si i 6= j entoncesfn k[i=1Ai! = CnSki=1Ain=Pki=1Cn (Ai)n=kXi=1fn (Ai) .La -aditividad ahora se deduce pasando al lmite.Ejemplos de espacios de probabilidad.Ejemplo 1.5 Sea un conjunto, A = P(). Dado x0 , denimos:A P(A) = 1 si x0 A0 si x0 / A.P se denota x0 y se dice que la probabilidad est concentrada en x0 o bienque el nico punto de probabilidad positiva es x0.Ejemplo 1.6 Sea = {x1, x2, ..., xn, ...} cualquier conjunto numerable,A = P(X), y sea ai 0, i = 1, 2, ..., una sucesin tal queXi=1ai = 1.Denimos para todo A P(A) = X{i: xiA}aiEn este caso P dene una probabilidad y est completamente determinadapor las probabilidades ai asignadas a cada elemento xi.11Propiedades de la funcin de probabilidad.Propiedad 1.7 P () = 0.Demostracin. Es inmediata, pues si tomamos Ai = , para todo i Nentonces por la -aditividad0 P () = P[i=1Ai! = Xi=1P (Ai) = Xi=1P () 1,y esto slo se cumple en el caso de que P () = 0. 2Propiedad 1.8 Sean A1, ...., An eventos disjuntos. Luego P( nSi=1Ai) = Pni=1P (Ai) .Demostracin. Tomemos la sucesin Bj = Aj si j = 1, ..., n y Bj = sij > n. Aplicando la propiedad de aditividad se obtiene el resultado. 2Propiedad 1.9 Si A A entoncesP (Ac) = 1 P (A) .Demostracin. Esto sale teniendo en cuenta que A y Acson disjuntos y1 = P () = P (A Ac) = P (A) +P (Ac) . 2Propiedad 1.10 Consideremos dos eventos A1 y A2. EntoncesP (A1A2) = P (A1) P (A1 A2) .Demostracin. ComoA1 = (A1A2) (A1 A2)se obtieneP (A1) = P (A1A2) +P(A1 A2),y de ah sigue el resultado. 2Proposicin 1.1 Si A1, A2 son eventos y A2 A1 entoncesP(A1A2) = P(A1) P(A2).y adems12P(A2) P(A1).Demostracin. Por la Propiedad 1.1 y el hecho de que A1A2 = A2 tenemosP(A1A2) = P(A1) P(A1 A2)= P(A1) P(A2)Adems de aqu resultaP(A1) = P(A2) +P(A1A2) P(A2). 2Propiedad 1.11 Si A1, A2 son eventos entoncesP (A1 A2) = P (A1) +P (A2) P (A1 A2) .Demostracin. Escribimos A1 A2 como la siguiente unin disjuntaA1 A2 = (A1A2) (A1 A2) (A2A1) .Entonces usando la Propiedad 1.10 resultaP (A1 A2) = P (A1A2) +P (A1 A2) +P (A2A1) == P (A1) P (A1 A2) +P (A1 A2)+P (A2) P (A1 A2)= P (A1) +P (A2) P (A1 A2) . 2Propiedad 1.12 Sean Ai A, i = 1, 2, ..., k. EntoncesP k[i=1Ai!kXi=1P (Ai) .Demostracin. De la Propiedad 1.11 se obtieneP (A1 A2) = P (A1) +P (A2) P (A1 A2) ,y el resultado vale para k = 2. El resto de la demostracin se hace porinduccin y se deja como ejercicio.13Propiedad 1.13 (-subaditividad) Sea (An)n1 A y A = Sn1An. EntoncesP(A) Xn=1P(An).Demostracin. DenamosB0 = ,B1 = A1,B2 = A2A1,B3 = A3(A1 A1),...Bn = Ann1[i=1Ai.Luego es inmediato que los Bi son disjuntos dos a dos yA = [n=1Bn.Por la aditividad y el hecho de que Bn An, resulta P (Bn) P (An)y entoncesP (A) = Xn=1P (Bn) Xn=1P (An) . 2Propiedad 1.14 Sea (An)n1 una sucesin de eventos tales que An An+1para todo n yA = [i=1Ai.LuegoP(A) = lmn+P(An).Demostracin. Como la sucesin es creciente entonces podemos transformarla unin en una unin disjunta deniendo: B0 = A0 = , B1 = A1 A0, B2 = A2A1, ...., Bk = AkAk=1, ... LuegoA = [k=1Bk,14y por lo tanto usando la aditividad y la Propiedad 1.1 se tieneP (A) = Xk=1P (Bk) = lmnnXk=1P (Bk) = lmnnXk=1P (AkAk1)= lmnnXk=1P(Ak) nXk=1P (Ak1)! = lmnP (An) . 2Propiedad 1.15 Sea (An)n1 una sucesin de eventos tal que An An+1para todo n yA = \i=1Ai.EntoncesP(A) = lmn+P(An).Demostracin. Sea Bn = Acn . Luego (Bn)n1 es una sucesin creciente deeventos y Ac= Si=1Bi. Luego por la propiedad anterior tenemos1 P(A) = P(Ac)= lmn+P(Bn)= lmn+(1 P (An))= 1 lmn+P(An),de donde se obtiene el resultado deseado. 2Denicin 1.3 Se llama lmite superior de una sucesin de conjuntos (An)n1 al conjuntoA = \k=1[n=kAn,y lmite inferior de la sucesin al conjuntoA = [k=1\n=kAn.Adems(A)c=__[k1\n=kAn__c= \k1 \n=kAn!c== \k1[n=kAcn = Ac.15Es decir el complemento del lmite inferior de la sucesin (An)n1 es el lmitesuperior de la sucesin (Acn)n1.Propiedad 1.16 (Caracterizacin de los lmites superiores e infe-riores)(i) SeaA = { : est en innitos conjuntos An}.Luego A = A.(ii) SeaA = { : est en todos los An salvo en un nmero nito}.Luego A = A.(iii) A ADemostracin.(i) Supongamos que A entonces para todo k N se tiene que Sn=kAn de manera que A. Recprocamente si / A entonces seencuentraen a lo sumo un nmero nito de conjuntos An. Supongamosque An0 sea el ltimo en el que est, es decir si n > n0 entonces / Anpara todo n > n0 de manera que / [n=n0+1Any entonces / A.(ii) Consideremos la sucesin de los complementos, es decir (Acn)n1. Porla observacin hecha anteriormente y el punto (i) se tiene queA = (Ac)c= { : pertence a innitos Acn}c= { : no pertenece a innitos Acn}= { : pertenece a lo sumo a un nmero nito de conjuntos Acn}= { : pertenece a todos a todos los An salvo un nmero nito}= A.(iii) Se obtiene del hecho de que claramente A A. 216En lo que sigue lmnan y lmnan denotarn respectivamente ellmite superior e inferior de la sucesin an.Propiedad 1.17 Dada una sucesin de eventos (An)n1, se tiene(i) P A lmnP (An) .(ii) P (A) lmnP (An) .(iii) Se dice que existe el lmite de la sucesin (An)n1de conjuntos siiA = A . En tal caso se tieneP A = P (A) = lmnP (An) .Demostracin.(i) Como lo hicimos anteriormente consideremosA = \k=1[ikAiy escribamosBk = [ikAi.Entonces la sucesin (Bn)n1 es decreciente yA = \k1Bk.Luego, como para todo i k se tiene Ai Bk, podemos escribirP (Bk) supik{P (Ai)}y entoncesinfk1{P (Bk)} infk1supik{P (Ai)}Luego, como P(Bk) es decreciente, se tieneP A = lmkP (Bk) = infk1{P (Bk)} infk1supik{P (Ai)} = lmiP (Ai) .(ii) Se deja como ejercicio.17(iii) De (i) y (ii) tenemos queP (A) lmnP (An) lmnP (An) P A.Luego si A = A, resulta P (A) = P A y entoncesP (A) = lmnP (An) = lmnP (An) = P A.Luego P (A) = P A = lmnP (An) . 21.3. lgebra generada por una familia de con-juntos.En general no se puede tomar como lgebra A a P() para denir elespacio de probabilidad. Esto siempre es posible si es a lo sumo numerable.El siguiente teorema muestra que dada una familia = de subconjuntos de ,existe una menor lgebra que contiene a =.Teorema 1.1 Dado un conjunto y una familia = de subconjuntos de , existe una lgebra A sobre tal que (i) = A y (ii) Si A es otralgebra sobre tal que = A, entonces A A. Se dice entonces que Aes la lgebra sobre generada por =.Demostracin. Denotaremos a la familia de todas las lgebras sobre quecontienen a = por R . EntoncesR = {A : A es una lgebra sobre y A =}.Claramente R es no vaca, ya que P() R. Denamos ahoraA = \ARA.Primero mostraremos que A es una lgebra sobre .Veamos que A.En efecto, A, para toda A R, luego A.Sea ahora A A, mostraremos que Ac A. En efecto, como A A,para toda A R, se tiene Ac A, para toda A R. Luego Ac A.Sea una sucesin numerable de eventos A1, A2, ...., An, ... que estn enA. Mostraremos que i=1Ai A. Dado A R, se tiene Ai A para todoi, y luego i=1Ai A tambin. Luego i=1Ai A, para todo A R yentonces[i=1Ai \ARA = A.Esto prueba que A es una -lgebra. Por otro lado si A es una lgebray A =, entonces A R, y esto implica que A A. 218lgebra de Borel sobre los reales. Si tenemos un espacio de prob-abilidad cuyo espacio muestral es el conjunto de nmeros reales R, parecenatural que la lgebra contenga los conjuntos de la forma (, x].Estopermitir calcular la probabilidad de que el resultado del experimento aleato-rio correspondiente sea menor o igual que x. Esto motiva la siguiente deni-cin.Denicin 1.4 La lgebra de Borel sobre R, que denotaremos por B, esla lgebra sobre R generada por los conjuntos de la forma Ax = (, x],para todo x R. Un conjunto B B se denomina boreliano.Propiedades de los borelianos.Propiedad 1.18 Todo intervalo (a, b] es un boreliano.Demostracin. Como(a, b] = (, b] (, a],por la Propiedad 1.5 (a, b] es un boreliano 2Propiedad 1.19 Dado x R, {x} B.Demostracin. Para esto se observa que para todo n NIn = (x 1n, x] B.Puesto quex 1n xresulta que{x} = \n=1In B,y el resultado se obtiene por las propiedades 1.18 y 1.12. 2De las propiedades 1.18 y 1.19, se deducen inmediatamente las propiedades1.20-1.22Propiedad 1.20 (a, b) = (a, b] {b} B.19Propiedad 1.21 [a, b] = {a} (a, b] B.Propiedad 1.22 [a, b) = {a} (a, b) B.Propiedad 1.23 Todo abierto es un borelianoDemostracin. Sea G R un abierto. Para todo x G existe un intervalo(ax, bx) tal que x (ax, bx) G con ax y bx racionales. Por lo tanto G puedeescribirse como la unin numerable de borelianosG = [xG(ax, bx),y por lo tanto G B. 2Propiedad 1.24 Todo cerrado es un borelianoDemostracin. Sea Fun cerrado. Entonces Fc= G es un abierto y porPropiedad 1.23 se tiene que Fc B. Ahora por ser lgebra se obtienequeF = (Fc)c B. 2lgebra de Borel en Rn.Denicin 1.5 La lgebra de Borel sobre Rnes la lgebra sobre Rngenerada por los conjuntos de la formaA(x1,x2,...,xn) = (, x1] (, x2] ... (, xn],donde (x1, ..., xn) es una n-upla de nmeros reales. Ser denotada por Bn.Observacin. De manera anloga al caso de la lgebra de Borel sobre R,se pueden mostrar las propiedades 1.25-1.26 cuyas demostraciones se dejancomo ejercicio.Propiedad 1.25 Cualquier rectngulo en Rnde la forma(a1, b1] (a2, b2] (an, bn](a1, b1) (a2, b2) (an, bn)[a1, b1) [a2, b2) [an, bn)es un boreliano.Propiedad 1.26 Todo abierto y todo cerrado en Rnes un boreliano.201.4. Espacios de probabilidad nitos o numerables.Denicin 1.6 Sea (, A, P) un espacio de probabilidad con a lo sumonumerable. En este caso podemos tomar como A el conjunto de partes de (P()). Denimos la funcin de densidad p, asociada a la probabilidad Pporp : [0, 1]de la siguiente manerap () = P ({}) .Propiedades de la funcin de densidadPropiedad 1.27 La funcin de densidad determina la funcin de probabil-idad. Para todo A se tieneP (A) = XwAp () .Demostracin. Si A entonces A se puede escribir como la siguiente unindisjuntaA = [A{},donde cada conjunto {} A. LuegoP (A) = XAP ({}) = XAp () . 2Propiedad 1.28 Si es nito o numerable se cumple queXp () = 1.Demostracin. En efecto por la Propiedad 1.271 = P () = Xwp () . 2Denicin 1.7 Decimos que un espacio nito = {1, .., n} es equiprob-able siip (i) = p (j) , i, j.21Observacin. Un espacio de probabilidad innito numerable no puede serequiprobable. En efecto, supongamos que = {1, 2, ..., n, ...}, y p() = c.Luego por la Propiedad 1.27 se tendra1 = Xi=1p(i) = Xi=1c,lo que es un absurdo puesto que Pi=1c = 0 segn c > 0 c = 0.Propiedad 1.29 Si es un espacio de probabilidad equiprobable entonces,la probabilidad de cualquier evento A se calcula porP (A) = #A#,donde #A denota el cardinal de A.Demostracin. Para ver esto supongamos que para todo se tengap () = c, entonces1 = Xp() = Xc = cX1 = c #,y luego,c =1#.AdemsP (A) = XwAp() = XwAc = c XwA1 = c (#A) = #A#.Ejemplo 1.7 Hallar la probabilidad de que dado un conjunto de n personas,dos personas cumplan aos el mismo da. Se supondr que todos los aostienen 365 das y que las probabilidades de nacimiento en cualquier fechason iguales.Supongamos que a cada persona se le asigna un nmero entre 1 y n ysea xi el da del cumpleaos de la persona i. Luego 1 xi 365, y podemosconsiderar el siguiente espacio muestral = {(x1, x2, ..., xn) : xi N :1 xi 365} .donde N es el conjunto de nmeros naturales.22En vez de calcular la probabilidad de que dos personas cumplan el mismoda, calculemos la del complemento, es decir la probabilidad de que todascumplan aos en das distintosAc= {(x1, x2, ..., xn) :1 xi 365, xi 6= xj i 6= j} .Se tiene# = 365nAdems#Ac= 365nn!.La importancia de la combinatoria se ve en este punto; es necesariocontar con principios de enumeracin. En este caso, primero seleccionamoslos n dias distintos entre los 365 das posibles y luego por cada muestra seobtienen n! formas distintas de distribuirlos entre n personas.Las probabilidades que se obtienen usando est formula pueden con-tradecir la intuicin. Por ejemplo, si n = 20, P (A) 0,41, si n = 30,P (A) 0,76 y si n = 40, P (A) 0,89.1.5. Probabilidad condicional.Sea (, A, P) un espacio de probabilidad, y consideremos dos eventosA, B A, y supongamos que P (B) 6= 0.Queremos estudiar como cambia la probabilidad de ocurrencia de Acuando se conoce que otro evento B ha ocurrido. En este caso habr que re-denir el espacio muestral considerando solamente los elementos de B comoposibles resultados.Por ejemplo, consideremos el experimento de tirar un dado y pregunt-mosnos acerca de la probabilidad de que salga un seis, sabiendo que el dadoescogido es un nmero par. En este caso la probabilidad no es 1/6, puestoque tenemos la certeza de que el resultado est en el conjunto {2, 4, 6} Comocada uno de estos tres resultados tienen idntica probabilidad, como se ver,la probabilidad de obtener el 6 sabiendo que el resultado es par ser 1/3.Vamos a tratar de determinar cual debe ser la probabilidad de un eventoA condicional a que se conoce que B ha ocurrido, utilizando interpretacinheurstica de la probabilidad como limite de la frecuencia con la cual un even-to ocurre. Para esto supongamos que se han hecho n repeticiones independientesdel experimento y denotemos connB :el nmero de veces en el que ocurre el resultado B,nAB :el nmero de veces en el que ocurre el resultado A B.23Heursticamente la probabilidad condicional de A dado B,ser el lmitede la frecuencia con la cual A ocurre en los experimentos donde B ocurre,es decir el lmite denABnB.Luego, la probabilidad de que ocurra A condicional B serlmnnABnB= lmnnABnnBn= lmn nABnlmn nBn= P (A B)P (B).Esto justica la siguiente denicin.Denicin 1.8 Sea (, A, P) un espacio de probabilidad A, B A tal queP (B) > 0. Se dene la probabilidad condicional de A dado B porP (A|B) = P (A B)P (B).El siguiente teorema muestra que para cada B jo, P(.|B) es una funcinde probabilidad.Teorema 1.2 Fijado el evento B , tal que P(B) > 0, denamos eP :A [0, 1] poreP (A) = P (A|B)para todo A A . Luego eP es una probabilidad.Demostracin.(i)eP () = P (|B) = P ( B)P (B)= P (B)P (B) = 1(ii) Sea (An)n1, una sucesin de eventos disjuntos dos a dos, es decir sii 6= j, entonces Ai Aj = . LuegoeP [n=1An! = P [n=1An|B! =P [n=1An! B!P (B)==P [n=1An B!P (B)=Pn=1P (An B)P (B)== Xn=1P (An B)P (B)= Xn=1P (An|B) = Xn=1eP (An) . 2241.6. Independencia de eventos.Denicin 1.9 Sea (, A, P) un espacio de probabilidad y consideremosA, B A. Se dice que A y B son independientes siP (A B) = P (A) P(B).Propiedad 1.30 (i) Si P(B) > 0, entonces A y B son independientes siy slo si P(A|B) = P(A).(ii) Si P(B) = 0, dado cualquier A A se tiene que A y B son indepen-dientes.Demostracin. La demostracin es inmediata. 2La propiedad de independencia se generaliza para un nmero nito deeventos.Denicin 1.10 Se dice que los eventos A1, ..., Ak son independientes siipara cualquier sucesin de subndices (i1, ...ih), h k, con ir 6= is si r 6= sse tiene queP__h\j=1Aij__=hYj=1P Aij.Observaciones.1. Para que tres eventos A1, A2 y A3 sean independientes se deben cumplirlas siguientes igualdadesP (A1 A2) = P (A1) P (A2)P (A1 A3) = P (A1) P (A3)P (A2 A3) = P (A2) P (A3)P (A1 A2 A3) = P (A1) P (A2) P (A3) .2. No alcanza la independencia tomados de a dos. Como ejemplo tomemos = {1, 2, 3, 4} espacio de probabilidad equiprobable, es decirP ({i}) = 14. Entonces los conjuntosA1 = {1, 2}A2 = {1, 3}A3 = {2, 3}25son independientes tomados de a dos pero no en forma conjunta. Msprecisamente, se cumple quej :P (Aj) = 12Ai Aj = {k} para algn ky luegoP (Ai Aj) = 14 = 12 12 = P (Ai) P (Aj) .PeroA1 A2 A3 = ,y por lo tanto0 = P (A1 A2 A3) 6= P (A1) P (A2) P (A3) = 18.Teorema 1.3 A1, ..., Ak son eventos independientes si y slo si para cualquiersucesin (i1, ...ih), h k, con ir 6= is si r 6= s y tal queP__h\j=2Aij__> 0,se tiene queP__Ai1h\j=2Aij__= P (Ai1) . (1.1)Demostracin. Supongamos primero que A1, ..., Ak son independientes y demostraremosque se cumple (1.1). Sean Ai1, Ai2, ..., Aih tales que ir 6= is si r 6= s yP Thj=2Aij > 0. EntoncesP__Ai1h\j=2Aij__= P Thj=1AijP Thj=2Aij =Qhj=1P AijQhj=2P Aij = P (Ai1) .Supongamos ahora que A1, ..., Ak son eventos que satisfacen la propiedaddel enunciado. Queremos probar que entonces son independientes, es decirqueP__h\j=1Aij__=hYj=1P Aij. (1.2)26Lo probaremos por induccin sobre h. Comenzaremos con h = 2. Dados Ai1y Ai2 con i1 6= i2, puede suceder que (a) P(Ai2) = 0 o que (b) P(Ai2) > 0.En el caso (a) se tiene que como Ai1 Ai2 Ai2, resulta P(Ai1 Ai2) = 0y luegoP(Ai1 Ai2) = P(Ai1)P(Ai2) (1.3)En el caso (b) como vale (1.1) se tieneP(Ai1|Ai2) = P(Ai1 Ai2)P(Ai2)= P(Ai1)y luego tambin valeP(Ai1 Ai2) = 0 = P(Ai1)P(Ai2).Esto muestra que (1.2) vale para h = 2.Supongamos ahora que (1.2) vale para h y probemos que tambin valepara h+1. Elegimos Ai1, Ai2, ..., Aih, Aih+1 eventos. Consideramos dos casos(a) Supongamos que P Th+1j=2 Aij = 0. En tal caso por la suposicin que(1.2) vale para h conjuntos se tiene que0 = P__h+1\j=2Aij__= h+1Yj=2P Aij.Luegoh+1Yj=1P Aij = 0, (1.4)y como Th+1j=1 Aij Th+1j=2 Aij se tendr queP__h+1\j=1Aij__= 0. (1.5)De (1.4) y (1.5) obtenemos queP__h+1\j=1Aij__= h+1Yj=1P Aij.(b) Supongamos ahora que P Th+1j=2 Aij > 0. Entonces como estamossuponiendo que (1.1) vale se tieneP__Ai1h+1\j=2Aij__= P (Ai1) ,27y luegoP Th+1j=1 AijP Th+1j=2 Aij = P (Ai1) .EquivalentementeP__h+1\j=1Aij__= P (Ai1) P__h+1\j=2Aij__,y como por la hipteisis inductiva (1.2) vale para h, se deduceP__h+1\j=1Aij__= P (Ai1)h+1Yj=2P Aij= h+1Yj=1P Aij. 2Denicin 1.11 Sea I un conjunto nito o numerable, una sucesin {Ai}iIse dice una particin de sii1.[iIAi = 2. Si i 6= j entoncesAi Aj = Teorema 1.4 (Teorema de la Probabilidad Total) Sea (, A, P) un es-pacio de probabilidad, {An}nI A una particin de con P(Ai) > 0, paratodo i I y B A tal que P(B) > 0. EntoncesP (B) = XiIP(Ai)P (B|Ai)Demostracin. Como B se puede escribir como la siguiente unin disjuntaB = [iI(B Ai) ,entonces como P(B|Ai) = P(BAi)/P(Ai), se tiene P(BAi) = P(Ai)P(B|Ai)y por lo tantoP (B) = XiIP(Ai)P (B|Ai) . 228Teorema 1.5 (Bayes) Sea (, A, P) un espacio de probabilidad y {Ai}1ik A una particin de con P(Ai) > 0, 1 i k. Sea B A con P(B) > 0.Supongamos conocidas a priori las probabilidades P (B|Ai) y P (Ai) paratodo i. EntoncesP (Ai|B) =P (Ai) P (B|Ai)Pkj=1P (Aj) P (B|Aj).Demostracin. Usando el teorema de la probabilidad total teniendo en cuentaque {Aj}1jk es una particin y aplicando la denicin de probabilidadcondicional y el Teorema 1.4 se obtieneP (Ai|B) = P (Ai B)P (B)=P (Ai) P (B|Ai)Pkj=1P (Aj) P (B|Aj). 2Ejemplo de aplicacin del Teorema de Bayes.Consideremos un test que detecta pacientes enfermos de un tipo espec-co de enfermedad. La deteccin corresponde a que el test de positivo. Elresultado de un test negativo se interpreta como no deteccin de enfermedad.SeaA1 : el evento el paciente seleccionado no tiene la enferemedadA2 : el evento el paciente seleccionado tiene la enfermedad Entonces {A1, A2} constituye una particin del espacio de probabilidadConsideremos ademsT+ : el evento el test da positivoT : el evento el test da negativoSupongamos conocidas las probabilidades de ser sano o enfermo antesde hacer el test (probabilidades apriori).P (A1) = 0,99; P (A2) = 0,01.Ademas supongamos queP (T+|A1) = 0,01; P (T+|A2) = 0,99.Observemos que para un test perfecto se pediraP (T+|A1) = 0; P (T+|A2) = 1.Es decir, estamos suponiendo que el test no es perfecto.Calculemos la probabilidad de que dado que el test detecta enfermedadel paciente sea efectivamente enfermo (esta probabilidad se denomina prob-abilidad a posteriori). De acuerdo al Teorema de Bayes se tiene29P (A2|T+) =P (A2) P (T+|A2)P (A1) P (T+|A1) +P (A2) P (T+|A2) = 0,5.yP (A1|T+) = 1 P (A2|T+) = 0,5La conclusin es que si el test da positivo, no hay una evidencia fuertede que el paciente est enfermo o sano ya que ambas probabilidades condi-cionales son iguales a 0.50. Luego un test como el descripto no es til paradetectar la enfermedad.Si logramos tenerP (T+|A1) = 0,001; P (T+|A2) = 0,999la situacin cambia; en tal caso resulta P (A2|T+) = 0,91, que es ms acept-able que la anterior.30Captulo 2Variable Aleatoria.2.1. Concepto de variable aleatoria.En muchos casos interesa conocer solamente alguna caracterstica numri-ca del resultado del experimento aleatorio. Demos dos ejemplos:1. El experimento consiste en tirar dos dados y los posibles resultadosson = { (x, y) : x I6, y I6 } donde Ik = {1, 2, ..., k} y para cadaresultado (x, y) interesa solo la suma de los dados x +y.2. El experimento consiste en un tiro al blanco y el conjunto de losresultados es = { (x, y) : x R, y R}, x e y son la abcisa yordenada del punto donde peg el tir tomando origen (0, 0) el puntocorrespondiente al blanco. En este ejemplo solo interesa la distanciaal blanco, es decir (x2+y2)1/2Denicin 2.1 Sea (, A, P) un espacio de probabilidad. Una variable aleato-ria es una funcin X : R tal que para todo x RX1((, x]) A. (2.1)Observaciones.1. La condicion (2.1) permite calcularP({ : X() x}) = P(X1((, x])).2. El concepto de variable aleatoria es esencialmente el mismo que elde funcin medible en teora de la medida. Si (, A, ) es un espaciode medida f: A R se dice medible sii para todo x vale quef1((, x])) A.313. Si A es el conjunto de partes de , como es usual cuando es nitoo numerable, la condicin (2.1) se cumple trivialmente.Teorema 2.1 Sea X una variable aleatoria sobre un espacio de probabili-dad (, A, P). Entonces vale que X1(B) A para todo B B. (B es elconjunto de borelianos en R).Demostracin. Como por denicin X1((, x]) A, basta con vericarque = {A R : X1(A) A}es una lgebra. Si esto es cierto se tendr que B , puesto que lalgebra de Borel es la ms chica que contiene a las semirectas. Veamosque esto es cierto.(a) R puesX1(R) = A.(b) Si A , entonces Ac . Como X1(A) A, se tendr queX1(Ac) = X1(A)c A.(c) Sea {An}nN . Luego X1(An) A para todo n y como A es unlgebrase tendr que[nNX1(An) A.LuegoX1[nNAn! = [nNX1(An) A.(a), (b) y (c) prueban que es una -lgebra. 22.2. Espacio de probabilidad asociado a una vari-able aleatoria.Sea un espacio de probabilidad (, A, P) y sea X : R una variablealeatoria. Asociada a esta variable podemos denir un nuevo espacio deprobabilidad (R, B, PX) donde para todo B B se denePX (B) = P X1(B).Obsrvese que P X1(B) est denido ya que X1(B) est en A.Vamos a mostrar que PX es efectivamente una probabilidad. La funcin PXse denomina probabilidad inducida por X o distribucin de X.32Si a uno le interesa slo el resultado de la variable aleatoria, esto permitetrabajar en un espacio de probabilidad donde el espacio muestral es R y lalgebra es B, la lgebra de Borel.Teorema 2.2 PX es efectivamente una funcin de probabilidad.Demostracin.(a)PX (R) = P X1(R) = P () = 1.(b) Si {Bi}iN B es una sucesin disjunta dos a dos, entonces {X1(Bi)}iNtambin lo es. LuegoPX[iNBi! = PX1[iNBi!! = P[iNX1(Bi)! == XiNP X1(Bi) = XiNPX ((Bi)) . 2Deniremos el concepto de funcin medibleDenicin 2.2 Una funcin g : R R, se dice medible Borel sii para todox Rg1((, x]) B.Observaciones.1. Trabajaremos en este curso con funciones medibles Borel, de man-era que a veces nos referiremos a ellas simplemente con el nombre demedibles.2. Si B B resultar g1(B) B. Este resultado se demuestra como elanlogo para variables aleatorias.3. Considerando un espacio de probabilidad con = R y A = B esinmediato que g es medible Borel es equivalente a que g es una variablealeatoria.Ejercicio. Demostrar los siguientes resultados:Propiedad 2.1 Si g : R R es continua entonces g es medible.33Propiedad 2.2 Si g : R R es montona entonces g es medible.Propiedad 2.3 Si B es boreliano, su funcin caracterstica IB es medible.Propiedad 2.4 Sea {fn}n1 es una sucesin de funciones medibles. En-tonces(i) Las siguientes funciones son mediblesf (x) = infnN{fn (x)},f (x) = supnN{fn (x)}.1. Tambin son mediblesf (x) = lmnfn (x) ,f (x) = lmnfn (x) .En particular si existe el lmite puntualf (x) = lmnfn (x)es medible.El siguiente teorema muestra que la composicin de una variable aleato-ria con una funcin medible es una variable aleatoria.Teorema 2.3 Si g : R R es medible y X : R es una variable aleato-ria, entonces g (X) : R es tambin una variable aleatoria.Demostracin. Basta con observar que dado B B[g (X)]1(B) = X1g1(B)Como C = g1(B) B, resulta que tambin X1g1(B) B. 2Como consecuencia de este teorema si g es continua y X es una variablealeatoria resulta que g(X) tambien una variable aleatoria. Por ejemplo si Xes una variable aleatoria, entonces seno(X) , coseno(X) , aX, con a constanteson variables aleatorias.Teorema 2.4 Si X, Y son variables aleatorias entonces(i) X +Y , X Y son variables aleatorias.(ii) Si P (Y 6= 0) = 1 entonces X/Y es una variable aleatoria.Demostracin. Las demostraciones de (i) y (ii) se vern ms adelante.342.3. Funcin de distribucin de una variable aleato-ria.Denicin 2.3 Sea X una variable aleatoria. Se dene la funcin de dis-tribucin asociada a X como la funcin FX : R [0, 1] dada porFX (x) = PX ((, x]) = P X1((, x]).Observacin. Como veremos, la importancia de FX es que caracteriza ladistribucin de X. Es decir FX determina el valor de PX(B) para todoB BPropiedades de la funcin de distribucin.Las cuatro propiedades que probaremos en el Teorema 2.5 van a carac-terizar a las funciones de distribucin.Teorema 2.5 Sea X una variable aleatoria sobre (, A, P) y sea FX sufuncin de distribucin. Entonces se tiene1. FX es montona no decreciente, es decir x1 < x2 implica FX (x1) FX (x2) .2. lmxFX (x) = 1.3. lmxFX (x) = 0.4. FX es continua a derecha en todo punto de R.Demostracin.1. Si x < x0 entonces(, x] (, x0],y por lo tantoFX (x) = P ((, x]) P (, x0] = FX x0.2. En primer lugar veamos quelmnFX (n) = 1.Consideremos la sucesin montona creciente de conjuntosAn = (, n], n N.Entonces[nNAn = R.35Luego de acuerdo con la propiedad para sucesiones crecientes de even-toslmnFX (n) = lmnPX (An) = PX[nNAn! = PX (R) = 1.Ahora veamos que efectivamente lmnFX (x) = 1, esto es para todo > 0 existe x0 > 0 tal que si x > x0 entonces se cumple |FX (x)1| 0, FX (x) < +1. Por lo tanto slo tenemos que mostrar que existe x0 > 0 tal quesi x > x0 entonces se cumple1 < FX (x) .Sabemos que dado > 0 existe un n0 N tal que si n > n0 entonces1 < FX (n) .Tomando x0 = n0 y teniendo en cuenta la monotona de FX, se tendrque si x > x0 entonces1 < FX (n0) FX (x) .3. Se demuestra de manera similar a (2). En primer lugar se prueba quelmnFX (n) = 0.Luego se considera la sucesin montona decreciente que converge a An = (, n],y se obtienelmnPX (An) = 0.Luego se procede como en (2).4. Queremos ver que FX es continua a derecha en cualquier punto x0 R.Es decir, dado > 0 existe > 0 tal que si0 < x x0 < entoncesFX (x0) FX (x) FX (x0) +.36La primer inecuacin es vlida siempre ya que como x0 < x entoncesFX (x0) FX (x0) FX (x). Basta entonces probar que FX (x) FX (x0) +. Consideremos la sucesin decreciente de conjuntosAn = , x0 + 1nque satisface\nNAn = (, x0].EntonceslmnFXx0 + 1n = lmnPX (An) = PX\nNAn!= PX ((, x0]) = FX (x0)Luego existe n0 N tal que si n > n0 entoncesFXx0 + 1n FX (x0) +Si tomamos < 1/n0, entonces para todo x tal que 0 < x x0 < setendrFX (x) FX (x0 +) FXx0 + 1n0 FX (x0) +.2Dada una funcin g : R R, denotemos por lmxx0g(x) el lmite deg(x) cuando x tiende a x0 por la izquierda. Entonces tenemos la siguientepropiedad de la funcin de distribucin.Propiedad 2.5 Para todo x0 R se tiene quelmxx0FX (x) = FX (x0) PX ({x0}) .Demostracin. Sea a = FX (x0) PX ({x0}) . Tenemos que mostrar que dado > 0 existe > 0 tal que si x0 < x < x0, entoncesa FX(x) a +. (2.2)Tenemos quea = PX((, x0]) PX ({x0}) = PX((, x0)).37Como x0 < x < x0 implica que (, x] (, x0), se tendr queFX(x) = PX((, x]) PX((, x0)) = a.Luego, para probar (2.2) bastar probar que x0 < x < x0 implicaa FX(x). (2.3)Como la sucesin de intervalos An = (, x01/n] es creciente y[nNAn = (, x0),se tendrlmnFX (x01/n) = lmnPX (An) = PX ((, x0))= a.Luego existe n0 tal que FX(x0 1/n0) a . Sea = 1/n0 y tomemosx0 < x < x0. Por la monotona de FX se tendra FX(x01/n0) = FX(x0) FX(x),y por lo tanto (2.3) se cumple. Esto prueba la Propiedad 2.5. 2Propiedad 2.6 FX es continua a izquierda en x0 si y slo si PX ({x0}) = 0.Demostracin. El resultado es inmediato a partir de la Propiedad 2.5. 2Demostracin.Teorema 2.6 Sea FX la funcin de distribucin de una v.a X. Entonces elconjunto de puntos de discontinuidad de FX es a lo sumo numerable.Demostracin. De acuerdo a la Propiedad 2.6, el conjunto de puntos de dis-continuidad est dado porA = {x : PX({x}) > 0}.Para todo k NseaAk = x : PX({x}) > 1k.Entonces es fcil mostrar que[k=1Ak = A.38Luego para demostrar el teorema bastar probar que para k N se tieneque #Ak < . En efecto, supongamos que para algn k0 existen innitospuntos {xn}n1 tal que para todo n N se cumplaPX ({xn}) >1k0.Entonces siB = [iN{xi}se tendrPX (B) = Xi=1PX ({xi}) > Xi=11k0 = ,lo que es un absurdo. 2Veremos ahora que toda funcin con las cuatro propiedades del Teorema2.5 es una funcin de distribucin para cierta variable aleatoria X (no nica).Para eso se requiere el siguiente teorema que daremos sin demostracin.Teorema 2.7 (de Extensin) Sea F: R [0, 1] una funcin con lascuatro propiedades del Teorema 2.5 . Luego existe una nica probabilidad Psobre (R, B) tal que para todo x R se tieneP ((, x]) = F (x) .Este Teorema no se demostrar en este curso ya que requiere teora dela medida. La la probabilidad P se denomina extensin de la funcin F.Veremos ahora algunas consecuencias del Teorema de Extensin.Corolario 2.1 Si X y X son variables aleatorias tales que FX = FX.Entonces para todo B B se tendrPX (B) = PX (B) .Demostracin. Es consecuencia de la unicidad del teorema de extensin. 2Corolario 2.2 Si F satisface las cuatro propiedades del Teorema 2.5 , en-tonces existe una variable aleatoria X (no necesariamente nica) tal queF = FX.Demostracin. De acuerdo al teorema de extensin se puede denir un espaciode probabilidad (R, B, P) de forma tal que para todo x RF (x) = P ((, x]) .Ahora consideramos la funcin identidad X : R R denida como X (x) =x para todo x R. Entonces se cumple queFX (x) = PX ((, x]) = P(X1((, x])) = P((, x]) = F (x) . 23940Captulo 3Variables aleatoriasdiscretas y continuas.Existen varios tipos de variables aleatorias. En este curso slo estudiare-mos con detalle las discretas y las (absolutamente) continuas.3.1. Variables aleatorias discretas.Denicin 3.1 Se dice que una v.a. X es discreta sii existe A R nitoo numerable tal que PX (A) = 1.Observacin. Ese conjunto A no tiene porque ser nico. Si se le agregaun conjunto nito o numerable de probabilidad cero, seguir teniendo estapropiedad. A continuacin vamos a encontrar el conjunto ms chico quetiene esta propiedad.Denicin 3.2 Sea X una variable aleatoria discreta. Se dene elrangode X como el conjunto de los puntos de discontinuidad de la funcin dedistribucin, es decir porRX = {x R : PX({x}) > 0}.Teorema 3.1 Sea X una variable aleatoria discreta. Luego (i) PX(RX) =1,(ii) Si PX(A) = 1, entonces RX A.Demostracin.(i) Sea A un conjunto a lo sumo numerable tal que PX(A) = 1. Luego Ase puede escribir como la siguiente unin disjuntaA = (A RX) (ARX) .41Entonces1 = PX (A)= PX ((A RX) (ARX))= PX (A RX) +PX (ARX) . (3.1)Luego basta probar quePX (ARX) = 0. (3.2)El conjunto ARX es nito o innito numerable. Adems para todox ARX se tiene quePX ({x}) = 0. Luego, comoARX = [xARX{x},resulta quePX(ARX) = XxPX(ARX)PX({x}) = 0.Luego hemos demostrado (3.2). Luego por (3.1) se tiene PX (A RX) =1, y luego tambin P(RX) = 1.(ii) Sea un conjunto A numerable tal que PX(A) = 1. Supongamos queexista x0 RX tal que x0 / A entonces consideramos eA = A{x0} yse obtiene quePX(eA) = PX(A) +PX({x0}) > PX(A) = 1,lo cual es un absurdo. 2La importancia de RX reside en el hecho de que para calcular la proba-bilidad de un evento B solo interesan los puntos de B que estn en RX. Eneste sentido se dice que la probabilidad se concentra en RX.Teorema 3.2 Para todo B B se tienePX (B) = PX (RX B) .Demostracin. Podemos escribir a B como la siguiente unin disjuntaB = (RX B) (B RX) , (3.3)y tomando probabilidad en ambos miembros se obtienePX (B) = PX (RX B) +PX (B RX) .42PeroB RX (RX)c,de manera quePX (B RX) PX((RX)c) = 0.Luego PX (B RX) = 0 y el teorema resulta de (3.3). 2Denicin 3.3 Sea X una variable aleatoria discreta. Se dene la funcinde densidad de probabilidad asociada a la variable X como la funcinpX : R [0, 1]tal quepX (x) = PX ({x}) .Tambin pX se suele llamar funcin de probabilidad puntual de X o funcinde frecuencia de X.Observacin. La funcin de densidad satisface pX (x) > 0 sii x RX ydetermina totalmente la probabilidad PX.Para ver esto probaremos el siguiente teorema.Teorema 3.3 Si B B entoncesPX (B) = XxBRXpX (x) .Demostracin. B RX se puede escribir como la siguiente unin disjuntaB RX = [xBRX{x}.Como B RX es nito o numerable se tienePX(B) = PX (RX B) = XxBRXpX (x) 2.3.2. Ejemplos de distribuciones discretas.3.2.1. Distribucin Binomial.Supongamos que se repite n veces un experimento que puede dar lugar ados resultados: xito o fracaso. Supongamos que todos los experimentos sonindependientes y tienen la misma probabilidad de xito . Sea X la variablealeatoria denida como el nmero total de xitos. La distribucin de estavariable se denomina binomial con n repeticiones y probabilidad de xito .La denotaremos con Bi (, n) .43Para formalizar este experimento aleatorio tomaremos como espacio mues-tral = {(1, 2, ..., n) :i {0, 1}} ,donde i = 1 indicar que el i-simo experimento result xito y i = 0 quefue fracaso. Como es nito podemos tomar como lgebra A el conjuntode partes de .La variable X se puede denir porX ((1, 2, ..., n)) =nXi=1i.El rango de esta variable es RX = {0, 1, ..., n}. Obtendremos seguida-mente su funcin de densidad. Sea 0 x n, el evento {X = x} est dadoporAx = {(1, 2, ..., n) :nXi=1i = x}.En primer lugar determinaremos la cantidad de elementos del conjuntoAx. Claramente un elemento de Ax queda determinado por los x lugaresentre los n posibles donde aparecen los unos. De manera que#(Ax) = nx.Obsrvese que el espacio muestral no es equiprobable, por lo que la prob-abilidad no se determina con el esquema casos favorables / casos igualmenteposibles.Sea el resultado de un experimento cualquiera. Si = 0 entoncesP () = 1 y si = 1 entonces P () = . Esto puede escribirse demanera ms compacta de la siguiente maneraP () = (1 )1.En primer lugar calculemos la probabilidad de un elemento arbitrariodel espacio muestral. Teniendo en cuenta la independencia de los resultadosde los distintos experimentos y que la ocurrencia de (1, 2, ..., n) involucrauna interseccin de eventos se tiene queP ((1, 2, ..., n)) = P n\i=1{en el experimento i el resultado es i}!=nYi=1P (i)=nYi=1i(1 )1i== nPi=1i(1 )nnPi=1i.44Ahora si = (1, 2, ..., n) Ax entonces Pni=1i = x y queda que laprobabilidad de ocurrencia de cualquier elemento de Ax espX () = pX ((1, 2, ..., n)) = x(1 )nxEn denitiva como Ax se puede escribir como la siguiente unin disjuntaAx = [Ax{}entoncespX() = P ({ : X() = x})= P (A)= XAxP ({}) == #(Ax) x(1 )nx= nxx(1 )nx.3.2.2. Distribucin Binomial Negativa (o Distribucin de Pas-cal).Consideremos, como en el caso de la distribucin binomial, un exper-imento aleatorio cuyo resultado es xito con probabilidad y fracaso conprobabilidad 1. Supongamos que se hacen repeticiones independientes delexperimento hasta que ocurran k xitos. Los parmetros de esta distribu-cin son : probabilidad de xito y k : el nmero de xitos buscado.Llamaremos X a la variable aleatoria denida como el nmero de experi-mentos que hay que realizar para obtener los k xitos. La distribucin deesta variable se denomina binomial negativa o de Pascal y se la denotarcon BN(, k). El rango de X esRX = {m N :m k}el cual es innito numerable.Consideremos la sucesin variables aleatorias independientes Zi , i Ndenidas porZi = 1 si el i-simo experimento es xito0 si el i-simo experimento es fracaso,y denimos las variablesYi =iXj=1Zj,45Claramente Yi cuenta la cantidad de xitos que se alcanzaron en los primerosi experimentos. Luego su distribucin es Bi(, i).El evento {X = x}, o sea el evento denido como la cantidad de expe-rimentos necesarios para alcanzar k xitos es x, puede escribirse como unainterseccin de dos eventos{X = x} = {Yx1 = k 1} {Zk = 1} .Los dos eventos del lado derecho de la ltima ecuacin son independien-tes. Luego, usando el hecho que Yx1 tiene distribucin Bi(, x 1) resultapara x k.pX (x) = P (X = x)= P (Yx1 = k 1) P (Zk = 1)= x 1k 1k1(1 )xk= x 1k 1k(1 )xk. (3.4)3.2.3. Distribucin Geomtrica.Se llama distribucin geomtica a la BN(, k), con k = 1. Luego es ladistribucin de la variable aleatoria X denida como el nmero de expe-rimentos necesarios para alcanzar el primer xito. A esta distribucin ladenotarenos como G().El rango de los valores posibles para la v.a. X esRX = {1, 2, ..., n, ...}.Reemplazando k = 1 en (3.4) se obtienepX (x) = x 10 (1 )x1= (1 )x1.Podemos vericar queXx=1pX (x) = Xx=1 (1 )x1= Xx=1(1 )x1= Xj=0(1 )j= 11 (1 ) = 1.463.2.4. Distribucin Hipergeomtrica.Consideremos una urna que contiene Nbolillas de las cuales D sonnegras y N D blancas. Se extraen secuencialmente (una a una) n bolillasy se dene la variable X como el nmero total de bolilas negras extradas.Si cada bolilla obtenida es repuesta en la urna antes de obtener la siguiente,el resultado de cada extraccin es independiente de las anteriores, ya queesos resultados no modican la composicin de la urna. Luego en este casoX tendr distribucin Bi(, n) con = D/N, ya que este nmero es laprobabilidad de sacar cada vez una bolilla negra.Si despus de cada extraccin la bolilla obtenida no se repone, no hayindependencia en los resultados de las extracciones y la distribucin de Xse denomina hipergeomtrica. La denotaremos por H(N, D, n).Estudiemos el rango de esta distribucin. Por un lado podemos obser-var que X no puede ser un nmero negativo, ni tampoco mayor que n, lacantidad total de bolillas extraidas. Por lo tanto:0 X n. (3.5)Por otro lado, claramente a lo sumo se pueden extraer D negras, y luegoX D. (3.6)Adems el nmero de total de bolillas blancas extraidas debe ser menor queN D. Por lo tanto tambin tenemosn X N D. (3.7)En denitiva de (3.5), (3.6) y (3.7) obtenemosRX = {x N : m ax (0, n N +D) x mn(n, D)}.Podemos pensar que las D bolillas negras estn numeradas de 1 a D, ylas blancas de D + 1 a N. Luego si denotamosIN={x N : 1 x N},el resultado de extraer n bolillas ser un subconjunto de IN con cardinal n.Luego, podemos tomar como espacio muestral = {A IN : #A = n}.Como todos estos subconjuntos tienen la misma probabilidad de ser ex-trados, estaremos en un caso de resultados equiprobables. El cardinal de esNn.47El evento {X = x} corresponder a aquellos subconjuntos A que con-tienen x bolillas negras y nx blancas. Para obtener el cardinal de {X = x}procedamos de la siguiente manera. Primero consideremos el nmero de sub-conjuntos de x bolas negras elegidas entre las D posibles. Este nmero esDx.Para cada uno de estos subconjuntos de x bolas negras hayN Dn xformas de elegir las restantes n x blancas. Luego#{X = x} = DxN Dn x,y por lo tantopX (x) = #Ax#=DxNDnxNn .Ejercicio.Sea n N jo y consideremos una sucesin de distribuciones hiperge-omtricas H(N, DN, n), N N tales quelmNDNN= .Entonces si pHN es la densidad de probabilidad de una distribucin H(N, DN, n)y pBla de una Bi(, n), se tienelmNpHN (x) = pB(x) .Es decir para N sucientemente grande la distribucin H(N, DN, n) sepuede aproximar por la distribucin Bi(, n) . Heursticamente, este resulta-do puede interpretarse como que debido a que n es pequeo con respecto aN, la reposicin o no de las bolillas extradas no cambia substancialmentela composicin de la urna.3.2.5. Distribucin de Poisson.La distribucin de Poisson se presenta cuando se considera el nmerode veces que ocuurre cierto evento en un intervalo determinado de tiempo.Por ejemplo(a) El nmero de clientes que entran en un determinado banco duranteun da.48(b) El nmero de accidentes automovilsticos que ocurren en la ciudad deBuenos Aires por mes.(c) El nmero total de llamadas telefnicas que llegan a una central tefni-ca entre las 15 hs. y 16 hs. de los das hbiles.Para que las distribuciones de estas variables sean de Poisson, se requiereun conjunto de supuestos que trataremos con mayor detalle ms adelante(ver el captulo 12).Por ahora slo indicamos su funcin de densidad. Para cada > 0, sedene la distribucin de Poisson con parmetro que simbolizaremos porP() por la siguiente densidad de probabilidadpX (x) = exx!para x N0,donde N0 es el conjunto de enteros no negativos.Es claro queXx=0pX (x) = Xx=0exx! = e Xx=0xx! = ee= e0= 1.3.2.6. Grco de la funcin de distribucin asociada a unavariable aleatoria discreta.Supongamos que el rango de X sea nito RX = {x1, ..., xn} y x1 < 0 y M positivo tal que f(x) M para todox [x , x] . Luego para todo tenemosPX ({x}) P((x , x])= ZxxfX (t) dt M.Como esto vale para todo , resulta PX ({x}) = 0. Luego FX es continuaen x.Supongamos ahora que fX no es acotada en ningn entorno del puntox. LuegoFX(x) = ZxfX (t) dtse dene porZxfX (t) dt = lmyxZyfX (t) dt= lmyx FX(y),y luego FX es continua en x.2El nombre densidad nos recuerda la cantidad de masa por unidad delongitud, rea o volumen segn el caso. En este caso se puede decir quefX (x) indica la probabilidad por unidad de longitud en las cercanas delpunto x. Ms precisamente podemos enunciar el siguiente teorema.51Teorema 3.4 Sea fX una funcin de densidad continua en x0, entonceslmh0PX ([x0h, x0 +h])2h= lmh012hZx0+hx0hfX (t) dt = fX (x0) .Demostracin. SeaMh = m ax{fX (x) :x [x0h; x0 +h]}ymh = mn{fX (x) :x [x0h; x0 +h]}.Por continuidadfX (x0) = lmh0Mh = lmh0mh. (3.8)Por otro lado valen las desigualdades2hmh Zx0+hx0hfX (t) dt 2hMh,y dividiendo por 2h en todos los miembros queda:mh 12hZx0+hx0hfX (t) dt Mh.Luego, teniendo en cuenta (3.8) y pasando al lmite cuando h 0 se obtienefX (x0) lmh0PX ([x0h; x0 +h])2h fX (x0) ,de donde se deduce el Teorema. 2Teorema 3.5 Sea fX una funcin de densidad continua en x0 y FX ladistribucin asociada. Entonces FX es derivable en x0 yF0X (x0) = fX (x0) .Demostracin. Se deduce de la anterior. 2Comentario vinculado a la teora de la medida.En este prrafo el signo R corresponde a la integral de Lebesgue. Msgeneralmente se denen distribuciones absolutamente continuas utilizandofunciones Borel medibles. Sea f : R R0 una funcin Borel medible talqueZ f (t) dt = 1. (3.9)52Entonces se puede denir una funcin de distribucin absolutamente con-tinua porF(x)= Zxf (t) dt, (3.10)Se puede demostrar que la funcin F denida por (3.10) cumple las cuatropropiedades del Teorema 2.5 y es continua y derivable en casi todo puntocon derivada f(x). Adems si P es la correspondiente probabilidad sobre Rasociada a F y garantizada por el Teorema de Extensin, dado cualquierboreliano B se tendrP(B) = ZB f (t) dt = Z IB(t)f (t) dt,donde IB(t) es la funcin indicadora del conjunto B.3.4. Ejemplos de distribuciones continuas.3.4.1. Distribucin uniforme en un intervalo.Consideremos dos nmeros reales a < b. Luego la distribucin uniforme,denotada por U(a, b), tiene como densidadfX(x) = k si x [a, b]0 si x / [a, b] .con k =1b a > 0. ClaramenteZ fX(x)dx = Zba kdx =kb a = 1.Ejercicio. Mostrar que la funcin distribucin de U(a, b) esFX(x)___0 si x (, a)x ab asi x [a; b)1 si x (b, ).Ejercicio. Mostrar que no existe ninguna distribucin uniforme sobretoda la recta.En particular consideremos la distribucin uniforme U (0, 1) que tienecomo densidadfX(x) = 1 si x [a; b]0 si x / [a; b] .53La funcin de distribucin es en este casoFX (x) =___0 si x (, 0]x si x (0, 1]1 si x (1, ).(3.11)Observaciones.1. Es claro que (3.11) es cierta puesto que si x (0, 1)FX (x) = ZxfX (t) dt= Z0fX (t) dt +Zx0fX (t) dt= 0 +Zx01dt= x.2. Sea I = (c, d) (0, 1) Cul es la probabilidad de que X (c, d)?PX ([c < X < d]) = FX (d) FX (c) = d c.Es decir, la probabilidad que esta distribucin asigna a cada intervalocontenido en [0, 1] es su longitud.3. Pueden generarse distribuciones uniformes de muchas maneras difer-entes. Por ejemplo podemos elegir dos nmeros A1, A2 de ocho dgitos,y denir A3 por los ltimos ocho dgitos de A1A2. En general si yahemos denido A1, A2, ..., Ak como enteros de ocho dgitos, podemosdenir recursimamente Ak+1 como los ltimos ocho dgitos de Ak1Ak.Este proceso lo podemos continuar hasta obtener An para un n dado.Luego generamos n nmeros con distribucin U(0, 1) porUi = Ai108, 1 i n.Estos nmeros no sern aleatorios. Sin embargo se comportarn como sifuesen variables aleatorias independientes con ditribucin U(0, 1). En par-ticular, dados a y b tales que 0 < a < b < 1, se tendr que si n es grande#{i : 1 i n, a < Ui < b}nser aproximadamente ba. Es decir la frecuencia con la cual los Ui estn enun intervalo (a, b) es aproximadamente la probabilidad que la distribucinU(0, 1) asigna a ese intervalo.543.4.2. Generacin de distribuciones a partir de la distribu-cin uniforme en [0,1]Vamos a mostrar cmo a partir de una variable aleatoria con distribucinU (0, 1) se puede generar cualquier otra variable con cualquier funcin dedistribucin.Para esto en primer lugar necesitamos algunas deniciones. Sabemos queuna funcin de distribucin no tiene por qu ser continua y mucho menosbiyectiva, de manera que en general su inversa no existe. Pero podemosdenir una funcin que tendr propiedades anlogas.Sea F : R [0, 1] una funcin que cumple con las cuatro propiedadesdel Teorema 2.5 que caracterizan una funcin de distribucin y consideremosy (0, 1) .DenimosAy = {x R : F (x) y}.Observaciones.1. Puede ocurrir que exista una preimagen va F del punto y : F1(y) 6=. Si F es continua por Bolzano podemos asegurar que asume todoslos valores intermedios entre el 0 y el 1 y en consecuencia en algnpunto x asumir el valor y.2. Puede ocurrir tambin que no exista la preimagen. Por ejemplo si Fno es continua para algunos valores de y ocurrir que F1(y) = .3. Puede ocurrir que existan innitas preimgenes. Basta con tomar unafuncin con las propiedades de funcin de distribucin que sea con-stante en un intervalo. Para y igual a ese valor hay innitas preim-genes.Ejercicio. Dar un ejemplo de cada una de las situaciones y dibujar elgrco correspondiente.Teorema 3.6 Existe el nmo del conjunto Ay.Demostracin. Basta probar que Ay 6= y est acotado inferiormente.Comencemos probando que Ay 6= .Sabemos que F satisface la propiedad(2) del Teorema 2.5 y por lo tantolmnF (n) = 1.Como 0 < y < 1 existe n0 N tal queF (n0) y,55de manera que n0 Ay. Ahora probaremos que Ay esta acotado inferior-mente. Por la propiedad (3) del Teorema 2.5 se tiene que,lmnF (n) = 0.Como y > 0 entonces existe n0 N tal queF (n0) < y. (3.12)Ahora bien si x Ay no puede ser que n0 > x puesto que por monotona(Propiedad (1) del Teorema 2.5) se cumpliraF (n0) F (x) y,en contradiccin con (3.12). En denitiva se tiene que si x Ay, entoncesn0 x, y por lo tanto Ay esta acotado inferiormente. 2En virtud de la existencia y unicidad del nmo podemos denir la si-guiente funcinDenicin 3.6 DadaF : R [0, 1]que satisface las propiedades de una funcin de distribucin (Propiedades(1)-(4) del Teorema 2.5) se dene F1: (0, 1) R porF1(y) = inf Ay.Propiedades de la funcin F1.Propiedad 3.4 (a) Dada una funcin de distribucin F, se tieneF F1(y) y.(b) El nmo del conjunto Ay resulta ser el mnimo de Ay, es decirF1(y) = mnAy.Demostracin. Bastar probar (a), ya que en ese caso F1(y) pertenece alconjunto Ay. Por denicin de nmo existe una sucesin (xn)nN Aydecreciente que converge a F1(y), es decir tal quelmnxn = F1(y) .Por la propiedad de continuidad a derecha de FlmnF (xn) = F F1(y). (3.13)56Ahora, comopara todo n N se tiene que xn Ay sabemos queF (xn) y,y luego por (3.13) resultaF F1(y) y, (3.14)por lo tanto (a) queda demotrado. Esto implica F1(y) Ay. Luego hemosmostrado (a) y por lo tanto tambin hemos demostrado (b). 2Propiedad 3.5 Si F es continua entoncesF F1(y) = y.Demostracin. Sabemos que F F1(y) y. Ahora supongamos que no secumple la igualdad, esto es queF F1(y) > y.Veremos que esto contradice el caracter de nmo del elemento F1(y) .Tomemos un punto intermedio entre F F1(y) e y que llamaremos y.Entoncesy < y < F F1(y).Por ser F continua, por el teorema de Bolzano se deduce que existe x (0, 1) tal queF (x) = y.Luego reemplazando en la inecuacin anterior se obtiene la desigualdady < F (x) < F F1(y).Por un lado esto dice que x Ay y por otro teniendo en cuenta la monotonade F resultax < F1(y) .Esto contradice que F1(y) sea el mnimo, absurdo. 2Propiedad 3.6 Dada una funcin de distribucin F, se cumple queF1(F (x)) x.Demostracin. Es claro que para todo x se tiene que x AF(x) puesto queF (x) F (x) . Sabemos que F1(F (x)) es el mnimo de AF(x) y luegoa AF(x) implica F1(F (x)) a.En particular si tomamos a = x AF(x) se obtiene el resultado buscado. 257Teorema 3.7 (Caracterizacin de Aycomo semirecta) Sea F una fun-cin de distribucin y tomemos y (0, 1) jo. Los conjuntosAy = {x : F (x) y},By = {x : x F1(y)} = [F1(y) , +)coinciden.Demostracin. Sabemos por la Propiedad 3.4 (b) queF1(y) = mnAy.Por otro lado es fcil ver que si x Ay y x > x, entonces tambin x Ay.Luego Ay = [F1(y), ). 2Ejercicio. Probar que F1es montona no decreciente y por lo tantomedible.Veremos ahora que dada cualquier funcin de distribucin F, a partir decualquier variable aleatoria con distribucin U(0, 1), se puede generar otravariable aleatoria con funcin de distribucin F.Teorema 3.8 Sea U una variable aleatoria con distribucin U(0, 1). Luegosi F es una funcin de distribucin (propiedades (1)-(4) del Teorema 2.5)se tiene que X = F1(U) tiene funcin de distribucin FDemostracin. Usando el Teorema 3.7 y el hecho de que FU(u) = u, 0 u 1, se tieneFX (x) = PX ((, x]) = P {F1(U) x} = P ({U F (x)})= FU (F (x)) = F (x) . 2Ejercicio. Sea X una variable con rango RX = N0 (enteros no nega-tivos) y sea pj = pX (j) , j N0. Vericar que F1Xes de la formaF1X(y) = 0 si 0 < y p0i si Pi1j=0pj < y Pij=0pj, i 1.Comprobar que el resultado anterior vale en este caso.El siguiente teorema de demostracin inmediata es muy importante.Teorema 3.9 Sean X y X dos variables aleatorias tales que FX = FX.Consideremos una funcin g medible y consideremos las variables aleatoriasobtenidas componiendoZ = g (X) ; Z = g (X) .EntoncesPZ = PZ.58Demostracin. Sea B B y probemos quePZ (B) = PZ (B) .Sabemos quePZ (B) = P Z1(B)= P X1g1(B)= PX g1(B).Por el Corolario 2.1 del Teorema de Extensin se tiene que PX g1(B) =PX g1(B) y luegoPZ (B) = PX g1(B)= P X1g1(B)= P Z1(B)= PZ (B) . 2El siguiente resultado vale para funciones de distribucin continuas.Teorema 3.10 Si X es una variable aleatoria con distribucin FX con-tinua y consideramos la variable aleatoria Y= FX (X) entonces Ytienedistribucin U(0, 1).Demostracin. Consideremos una variable aleatoria U con distribucin U(0, 1)y sea X = F1X(U) . Sabemos que X tiene distribucin FX. Luego por elTeorema 3.9 las variablesY = FX (X) , Y = FX (X)tienen la misma distribucin. PeroY = FX (X) = FX F1X(U),y siendo FX continua por Propiedad 3.5 se tiene FX F1X(U) = U. LuegoY tiene distribucin U(0, 1) y por lo tanto, de acuerdo al Teorema 3.9tambin esa es la distribucin de Y. 23.4.3. Distribucin Normal N(, 2).La distribucin normal es tal vez la ms importante y sin lugar a dudasla que se usa con mayor frecuencia. A veces este uso se hace de manera inade-cuada sin vericar los supuestos que la identican. Veremos ms adelante laimportancia de esta distribucin. Adelantamos sin embargo, informalmente59que si {Yn}nN es una sucesin de variables a independientes tales que ningu-na de ellas prevalezca sobre las otras, entonces la variable aleatoriaSn =nXj=1Yjes aproximadamente normal para n sucientemente grande. Esta distribu-cin tiene mucha aplicacin en la teora de errores, donde se supone que el e-rror total de medicin es la suma de errores que obedecen a diferentes causas.La distribucin normal depende de dos parmetros R y 2 R>0.En este captulo solo veremos la distribucin normal correspondiente a = 0 y 2= 1. En este caso la funcin de densidad esfX (x) = Kexpx22,donde K es una constante y exp(x) es la funcin exponencial ex. Calculare-mos la constante K de forma tal que1 = Z+Kexpx22dx,y por lo tantoK =1R+ expx22dx.SeaI = Z+expx22dx.Para el clculo de esta integral podemos usar o bien residuos (teorade anlisis complejo) o bien calcular I2como integral doble a traves de uncambio de variable a cordenadas polares. Optamos por la segunda formaI2= Z+expx22dx Z+expy22dy= Z+Z+expx22expy22dxdy= Z+Z+expx2+y22!dxdy.Ahora hacemos el cambio de variablex(, ) = x = cos ()y (, ) = y = sin()60Claramente se tienex2+y2= 2La transformacin del cambio de variable T (, ) = (x(, ) , y (, )) =( cos () , sin()) 0, 0 < 2 tiene matriz diferencialDT (, ) = xxyy = cos () sin()sin() cos ().Entonces su jacobianoJ (, ) = det (DT (, )) = det cos () sin()sin() cos ()= cos2() + sin2() = .En denitiva |J (, ) | = y aplicando la frmula de cambio de variablesen integrales mltiples resultaI2= Z+Z+expx2+y22!dxdy == Z+0Z20exp22dd == 2Z+0exp22d = 2Z+0exp22d.Haciendo el cambio de variableu = 22 ,du = dse obtieneI2= 2Z+0exp(u) du= 2exp(u) |+0= 2,y por lo tantoI =2LuegofX (x) =12 expx22.613.4.4. Distribucin Exponencial.Esta distribucin depende de un parmetro que puede tomar cualquiervalor real positivo. Su funcin de densidad esf(x) = exsi x 00 si x < 0.Haciendo la transformacin y = x, dy = dx se obtieneZ f(x)dx = Z 0exdx = Z 0eydy= [ey] |0 = 0 + 1 = 1.Se deja como ejercicio vericar que la correspondiente funcin de distribucinesF(x) = 1 exsi x 00 si x < 0.(3.15)La distribucin exponencial con parmetro ser denotada por E().Esta distribucin aparece generalmente cuando se trata de estudiar ladurabilidad de un mecanismo bajo el supuesto de que el sistema no se des-gasta a lo largo del tiempo. Como ejemplo suele citarse a veces la duracinde una lmpara elctrica. Sin embargo en este caso existe un cierto desgastepropio de la lmpara y su distribucin no es exactamente exponencial. Estadistribucin es ms adecuada para modelar la duracin de los mecanismoselectrnicos, ya que estos no tienen prcticamente desgaste.Para precisar el concepto de desgaste decimos que la distribucin de Xno tiene desgaste cuando dado a > 0 y b > 0 se tieneP (X a +b|X a) = P (X b) .Esto signica que la probabilidad de que llegue a durar hasta el tiempoa +b, dado que ha llegado hasta el tiempo a, es igual a la probabilidad deque haya durado hasta el tiempo b. Es decir el proceso no tiene memoriadel tiempo que estuvo funcionando (no recuerda qu tan viejo es) y portanto, mientras funciona lo hace como si fuese nuevo.Decimos por el contrario que hay desgaste siP (X a +b|X a)es una funcin decreciente de a.Vamos a mostrar que la propiedad de falta de desgaste caracteriza a ladistribucin exponencial. Esto signica que las nicas distribuciones conti-nuas y no negativas que tienen la propiedad de falta de desgaste son lasexponenciales.62Como {X a +b} {X a} = {X a +b} resulta queP (X a +b|X a) = P ({X a +b} {X a})P (X a)= P ({X a +b})P (X a).Por lo tanto la propiedad de falta de desgaste se puede escribir comoP (X a +b)P (X a)= P (X b) ,o equivalentementeP (X a +b) = P (X b) P (X a) . (3.16)Si X tiene distribucin continua de P (X a) = FX (a) resulta1 FX (a) = P (X > a) = P (X a) .Entonces denimosGX (a) = 1 FX (a) ,y como la propiededad de falta de memoria es equivalente (3.16), esta sepuede escribir tambin comoGX (a +b) = GX (a) GX (b) (3.17)para todo a 0, b 0.En el caso en que X tiene distibucin exponencial por (3.15) se tieneGX(x) = expara todo x 0. El siguiente teorema muestra que la propiedad de falta dememoria caracteriza a las distribuiones exponenciales.Teorema 3.11 Sea X una variable aleatoria continua con valores no neg-ativos. Luego la propiedad de falta de memoria dada por (3.17) se cumplesi y slo si GX (x) = exes decir si X tiene distribucin exponencial.Demostracin. Supongamos primero que GX (x) = ex. Probaremos que(3.17) se cumple. En efectoGX (a +b) = e(a+b)= e(a)+(b)= eaeb= GX (a) GX (b) .Supongamos ahora que (3.17) se cumple. Probaremos que GX (x) = expara algn > 0. En primer lugar veamos que para todo n, dados a1 0, ..., an 0 entoncesGXnXi=1ai! =nYi=1GX (ai) .63Probaremos esta proposicin por induccin. Claramente vale para n = 2 porhiptesis.Supongamos que vale para n y probemos que vale para n + 1.GXn+1Xi=1ai! = GXnXi=1ai +an+1!= GXnXi=1ai!Gx (an+1)= nYi=1GX (ai)!GX (an+1)= n+1Yi=1GX (ai) .Ahora probaremos que para todo a 0 vale queGX (a) = [GX (1)]a.La estrategia es primero probarlo para cuando a es un entero no negativo,luego cuando es un racional no negativo y por ltimo cuando es un nmeroreal no negativo. Sea n N entoncesGX (n) = GX__1 + 1 +... + 1|{z}n sumandos__= [GX (1)]n.Ahora sea a = mn Q el conjunto de los nmeros racionales. EntoncesGX (m) = GXnmn= GX____mn +... + mn|{z}n sumandos____= GXmnn.EntoncesGXmn = [GX (m)]1n= [(GX (1))m]1n= [GX (1)]mn .64Por ltimo consideremos a R0. Elijamos una sucesin (rn)nN Q talque rn a. Siendo GX continua resultaGX (a) = lmnGX (rn)= lmn(GX (1))rn= (GX (1))lmnrn= [GX (1)]a. (3.18)Veamos que 0 < GX (1) < 1. Supongamos que GX(1) = 0. Luego por (3.18)GX(a) = 0 para todo a 0. En particular GX(0) = 0 y luego FX(0) =1. Esto implica que P(X = 0) = 1 y luego X es discreta. Supongamosahora que GX(1) = 1. Luego por (3.18) tenemos que para todo a 0 setiene GX(a) = 1. Luego para todo a 0 resulta FX(a) = 0 y entonceslmxFX(x) = 0, lo cual es un absurdo, ya que este lmite es 1. Luegopodemos denir = log (GX (1)) ,de manera queGX (1) = eLuego, usando (3.18), podemos escribirGX (a) = [GX (1)]a= ea,y el teorema queda probado. 23.5. Variables aleatorias mixtas.Adems de las variables discretas y absolutamente continuas existenotros tipos de variables. Un estudio exhaustivo de los tipos de variablesaleatorias requiere algunos conocimientos de la teora de la medida. Aquintroduciremos las variables mixtas cuya funcin distribucin es una com-binacin convexa de funciones de una distribucin discreta y otra absoluta-mente continua.Denicin 3.7 Decimos que Fes una funcin de distribucin mixta sies una combinacin convexa de una distribucin absolutamente continua yotra discreta. Ms precisamente, si existen ,0 < < 1 , F1 funcin dedistribucin absolutamente continua, F2 funcin de distribucin discreta talqueF = (1 ) F1 +F2. (3.19)Teorema 3.12 Si F est dada por (3.19) se tiene que65(a) F es una funcin de distribucin.(b) F no corresponde a la funcin de distribucin de una variable absolu-tamente continua ni a una discreta.Demostracin.(a) Por el Corolario 2.2 de la pgina 39 basta probar que F satisface lasPropiedades 1-4 del Teorema 2.5. Probemos primero que F es mon-tona no decreciente. Sean x < x0. Luego como F1 y F2 son montonasno decrecientes se tendr F1(x) F1(x0) y como 1 > 0 resulta(1 )F1(x) (1 ) F1(x0). (3.20)Del mismo se tiene queF2(x) F2(x0). (3.21)Sumando miembro a miembro (3.20) y (3.21) resulta qie F(x) F(x0).Multiplicando por una constante se conserva la propiedad de que unafuncin es continua a derecha y sumando funciones continuas a derechase obtiene otra funcin continua a derecha. Esto prueba que Fescontinua a derecha.Por otro lado, tenemos quelmx+F (x) = lmx+((1 ) F1 +F2) (x)= (1 ) lmx+F1 (x) + lmx+F2 (x)= (1 ) + = 1.Finalmente, tambin vale que:lmxF (x) = lmx((1 ) F1 +F2) (x)= (1 ) lmxF1 (x) + lmx+F2 (x)= 0.Por lo tanto (a) queda probado.(b) Veamos ahora que F no corresponde a la funcin de de distribucinde una variable absolutamente continua o discreta. Sean Pi, las prob-abilidades inducidas por las distribuciones Fi, i = 1, 2 . Luego si P esla probabilidad asociada a F, usando el Teorema de Extensin de la39 se puede probar queP(B) = (1 )P1(B) +P2(B) B B1.66Esta comprobacin se deja como ejercicio. Sea R2 el rango de unavariable con distribucin F2. Por lo tanto R2 es numerable y P2(R2) =1. LuegoP (R2) = (1 ) P1 (R1) +P2 (R2) P2(R2) = > 0Por lo que se deduce que F no corresponde a una distribucin absolu-tamente continua, ya que stas asignan probabilidad 0 a todo conjuntonumerable.Para ver que no es discreta veamos que sobre un conjunto numerablearbitrario su probabilidad es menor que 1. Sea A un conjunto nu-merable, luego, teniendo en cuenta que F1 es absolutamente continuaresulta que que P1 (A) = 0. LuegoP (A) = (1 ) P1 (A) +P2 (A)= P(A2) < 1.Como esto ocurre para todo A arbitrario, F no puede ser discreta. 2Ejemplo 3.1 Sea U U [0, 1] y consideremos V = mnU, 12. EntoncesFV (u) =___u si u < 121 si u 12Claramente P (V = 1/2) = P(1/2 U 1) = 1/2 de manera que Vno esabsolutamente continua. Tampoco es discreta. Es fcil ver queF = 12F1 + 12F2donde F1 es la distribucin de una U[0, 1/2) y F2 la distribucin de unavariable discreta que asigna probabilidad 1 a x = 12.Veremos cmo se puede generar una variable con la distribucin mixta(3.19).Teorema 3.13 Consideremos variables aleatorias independientes X1 condistribucin F1, X2 con distribucin F2 y U que toma valores 0 y 1 conprobabilidades 1 y respectivamente. Denimos la variableX = X1 si U = 0X2 si U = 167Luego FX (1 )F1 +F2.Demostracin. Teniendo en cuenta la independencia de las variables resultaqueFX (x) = PX ((, x])= P ({X x})= P ({X1 x} {U = 0})[({X2 x} {U = 1})= P ({X1 x} {U = 0}) +P ({X2 x} {U = 0})= P (X1 x)P(U = 0) +P(X2 x)P (U = 1)= (1 )P (X1 x) +P (X2 x)= (1 )F1 (x) +F2 (x) . 268Captulo 4Vectores aleatorios.4.1. Denicin de vector aleatorio.En muchos casos interesa estudiar simultaneamente ms de una car-acterstica del resultado de un experimento aleatorio. Supongamos que elexperimento consiste en elegir al azar alumnos de un determinado grado, yque estamos interesados en estudiar el perl biolgico de esos alumnos.Podramos considerar que el perl se compone de la talla, el peso, presinsangunea, frecuencia cardaca y capacidad respiratoria. Por lo tanto intere-saran cinco variables aleatorias que deberan estudiarse simultneamente.Esto motiva la siguiente denicin de un vector aleatorio.Denicin 4.1 Sea (, A, P) un espacio de probabilidad. Se dice queX =(X1, X2, . . . , Xk) es un vector aleatorio de dimensin k si para cadaj = 1, 2, . . . , k se tiene que Xj : R es una variable aleatoria.Obsrvese que si X = (X1, . . . , Xk) es un vector aleatorio de dimen-sin k, entonces tambin puede ser interpretado como una funcin X : Rk. En efecto dado , el correspondiente valor de la funcines X() = (X1(), . . . , Xk()) Rk.Teorema 4.1 Para todo x =(x1, x2, . . . , xk) Rkse tendrX1((, x1] (, x2] (, xk]) A.Demostracin. Sea B = (, x1] (, x2] (, xk]. EntoncesX1(B) = { : X() B}=k\i=1{ : Xi () (, xi]} ==k\i=1X1i((, xi]) .69Luego como por denicin de variable aleatoria para todo i se tiene que X1i((, xi]) A y A es una lgebra se concluye que X1(B) A. 2Recordemos que Bkdenota la lgebra generada por los conjuntos deRkde la formaAx1,x2,...,xk = (, x1] (, x2] (, xk]En R2es fcil vericar grcamente que los conjuntos de la forma(a1, b1] (a2, b2] B2ya que se pueden escribir de la siguiente forma(a1, b1] (a2, b2] = Ab1,b2Aa1,b2(Ab1,a2Aa1,a2) (4.1)y que diferencias de conjuntos de una lgebra son conjuntos de la lgebra.Va a ser til observar queAa1,b2 Ab1,b2(4.2)Aa1,a2 Ab1,a2(4.3)y(Ab1,a2Aa1,a2) Ab1,b2Aa1,b2. (4.4)Ejercicio. Probar el siguiente teorema.Teorema 4.2 Sea X un vector aleatorio de dimensin k. Entonces si B Bkse tiene que X1(B) A.4.2. Espacio de probabilidad inducido.Denicin 4.2 Dado el espacio de probabilidad (, A, P) y un vector aleato-rio X = (X1, . . . , Xk) se puede denir un nuevo espacio de probabilidadRk, Bk, PX donde dado B Bkse denePX (B) = P X1(B).Ejercicio. Probar el siguiente teorema.Teorema 4.3 PX es una funcin de probabilidad sobre (Rk, Bk).La demostracin es similar a la correspondiente a PX donde X es unavariable aleatoria. La probabilidad PX se denomina probabilidad inducidapor el vector X o distribucin de X.704.3. Funcin de distribucin conjunta de un vectoraleatorio.Denicin 4.3 Dado un vector aleatorio X = (X1, . . . , Xk), se dene lafuncin de distribucin conjunta del vector X como la funcin FX : Rk[0; 1] dada porFX (x1, x2, . . . , xk) = PX ((, x1] (, x2] (, xk]) == P k\i=1{ : Xi () xi}!.Propiedades de FX.Propiedad 4.1 FX es montona no decreciente en cada componente.Demostracin. Si xi < x0i entoncesAx1,...,xi,...,xn Ax1,...,x0i,...,xn,de manera queFX ((x1, . . . , xi, . . . , xn)) FXx1, . . . , x0i, . . . , xn. 2Propiedad 4.2 Se tiene quelmx1,...,xkFX (x1, x2, . . . , xk) = 1.Demostracin. Sean sucesiones crecientes{x1i}iN , {x2i}iN , . . . , {xki}iN .Queremos probar quelmi+FX (x1i, x2i, . . . , xki) = 1.Ahora bien la sucesin de conjuntosCi = (, x1i] (, x2i] (, xki] (4.5)es montona no decreciente. Por otro lado[iNCi = Rk,71y en consecuencialmi+FX (x1i, x2i, . . . , xki) = lmiPX ((, x1i] (, x2i] (, xki]) == PX[iNCi! = PXRk = 1. 2Propiedad 4.3 Para todo i, 1 i k, se tiene quelmxi FX (x1, x2, . . . , xi, . . . , xk) = 0.Demostracin. Sin prdida de generalidad lo mostraremos para i = 1. Paraeste caso consideremos una sucesin montona no creciente tal que {yj}jN .Entonces si denimos {Cj}jN porCj = (, yj] (, x2] (, xk] (4.6)se tiene que Cj+1 Cj para todo j N, y adems\jNCj = .Por lo tantolmjFX (yj, x2, .., xk) = lmjPX ((, yj] (, x2] (, xk]) == PX__\jNCj__= PX ()= 0. 2Propiedad 4.4 FX es continua a derecha.Demostracin. Sea (x1, x2, . . . , xk) Rky consideremos sucesiones mon-tonas decrecientes tales que{x1i}iN x1; {x2i}iN x2; . . . ; {xki}iN xkConsideremos los conjuntosCi = (, x1i] (, x2i] (, xki].72EntoncesCi+1 Ciy\iNCi = Ax1,...,xk.LuegolmiFX (x1i, x2i, . . . , xki) = lmiP(Ci)= P(Ax1,...,xk)= FX (x1, x2, . . . , xk) . 2Las Propiedades 4.1, 4.2, 4.3 y 4.4 no caracterizan a una funcin dedistribucin de un vector aleatorio como ocurra para el caso de la funcinde distribucin de una variable aleatoria.Para jar ideas de por qu sucede esto, pensemos en R2. Sea entoncesun vector aleatorio en R2X = (X1, X2) y FX su funcin de distribucinconjunta. Sea Ax1x2 = (, x1] (, x2] y C = (a1, b1] (a2, b2].El rectngulo C puede ser escrito de la siguiente maneraC = (Ab1b2Aa1b2) (Ab1a2Aa1a2) .Teniendo en cuenta las inclusionesAa1a2 Ab1a2, (4.7)Aa1b2 Ab1b2(4.8)y(Ab1a2Aa1a2) (Ab1b2Aa1b2) , (4.9)resulta quePX (C)= PX (Ab1b2Aa1b2) PX (Ab1a2Aa1a2)= PX (Ab1b2) PX (Aa1b2) PX (Ab1a2) +PX (Aa1a2) .Como PX (Ax1x2) = FX(x1, x2),resultaPX (C) = FX (b1, b2) FX (a1, b2) FX (b1, a2) +FX (a1, a2) .Observaciones.1. Para vericar las inclusiones (4.7), (4.8) y (4.9), se sugiere hacer undibujo.732. Esto muestra que la probabilidad de el rectngulo C se determina porel valor de FX sobre los vrtices: es la suma de los valores sobre losvrtices de la diagonal principal menos la suma de los valores sobre losvrtices de la otra diagonal.3. Luego dada una funcin de distribucin FX para todo a1 < b1 y a2 < b2se debera cumplirFX (b1, b2) FX (a1, b2) FX (b1, a2) +FX (a1, a2) 0. (4.10)4. Veamos que esta propiedad no se deduce de las propiedades P1, P2,P3 y P4. Para ello damos un ejemplo de una funcin que satisface P1,P2, P3 y P4 pero no (4.10). Sea F : R2[0, 1] denida porF (x1, x2) = 1 si x1 +x2 1, x1 0, x2 00 si en otra parte.Es fcil vericar que esta funcin es (i) montona no decreciente encada variable, (ii)lmx1, x2F (x1, x2) = 1,(iii)lmxiF (x1, x2) = 0 para cualquier i = 1, 2,y (iv) es continua a derecha. Pero si consideramos el rectngulo C =(0, 1] (0, 1] entonces si F es una funcin de distribucin deberamostenerP(C) = F (1, 1) +F (0, 0) (F (0, 1) +F (1, 0)) = 1 2 = 1.Esto muestra que F no puede ser la funcin de distribucin de ningnvector aleatorio en R2.Para estudiar las propiedades faltantes vamos a necesitar la siguientedenicin.Denicin 4.4 Sea F una funcin de k variables. Si ai < bi se dene eloperador diferencia en la variable i por4i (a, b) F = F (x1, x2, . . . , xi1, b, xi+1, . . . , xk)F (x1, x2, . . . , xi1, a, xi+1, . . . , xk) .74Estos operadores se pueden aplicar en forma sucesiva. Por ejemplo4j (aj, bj) 4i (ai, bi) F= 4j (aj, bj) (F (x1, . . . , xi1, bi, xi+1, . . . , xk)F (x1, . . . , xi1, ai, xi+1, . . . , xk))= 4j (aj, bj) F (x1, x2, . . . , xi1, bi, xj+1, . . . , xk)4j (aj, bj) F (x1, x2, . . . , xi1, ai, xi+1, . . . , xk)= (F (x1, . . . , xi1, bi, xi+1, . . . , xj1, bj, xj+1, . . . , xk)F (x1, . . . , xi1, bi, xi+1, . . . , xj1, aj, xj+1, . . . , xk))(F (x1, . . . , xi1, ai, xi+1, . . . , xj1, bj, xj+1, . . . , xk)F (x1, . . . , xi1, ai, xi+1, . . . , xj1, aj, xj+1, . . . , xk)).Es fcil ver que estos operadores conmutan, es decir4j (aj, bj) 4i (ai, bi) F = 4i (ai, bi) 4j (aj, bj) FMs generalmente, si a1 < b1, a2 < b2, . . . , ak < bk podemos considerarla diferencia sucesiva41 (a1, b1) 4k1 (ak1, bk1) 4k (ak, bk) .Observacin. Podemos expresar la propiedad (4.10) en trminos del oper-ador diferencia comoPX ((a1, b1] (a2, b2]) = (FX (b1, b2) FX (a1, b2)) (FX (b1, a2) FX (a1, a2))= 41 (b1, a1) FX (x1, b2) 41 (b1, a1) FX (x1, a2)= 42 (b2, a2) 41 (b1, a1) FX (x1, x2) 0En general se puede probar el siguiente TeoremaTeorema 4.4 Sea FX la funcin de distribucin conjunta del vector aleato-rio X = (X1, . . . , Xk) y sean a1 < b1, a2 < b2, . . . , ak < bk. Entonces setiene quePX ((a1, b1] (a2, b2] (ak, bk])= 41 (b1, a1) . . . 4k1 (bk1, ak1) 4k (bk, ak) FX (x1,x2, . . . , xk) 0.Demostracin. Para probar el teorema, consideremos para cada h, 0 h k los conjuntos de la formaCh = (a1, b1] (a2, b2] (ah, bh] (, xh+1] (, xk].Se prueba por induccin que para todo h kPX (Ch) = 41 (b1, a1) . . . 4h1 (bh1, ah1) 4h (bh, ah) F (x1, x2, . . . , xh, xh+1, . . . , xk) .(4.11)75Probaremos primero (4.11) para h = 1. SeaC1 = (a1, b1] (, x2] (, xk].LuegoC1 = (, b1](, x2] (, xk](, a1](, x2] (, xk],y como el segundo conjunto est incluido en el primero, se tienePX(C1) = PX((, b1] (, x2] (, xk] (, a1] (, x2] (, xk])= FX(b1, x2, . . . , xk) FX(a1, x2, . . . , xk)= 41 (b1, a1) F (x1, x2, . . . , xk) .Supongamos ahora que (4.11) vale para h = i < k. Probaremos que tambinvale para h = i + 1. SeaCi+1 = (a1, b1] (a2, b2] (ai+1, bi+1] (, xi+2] (, xk].Claramente Ci+1 = C(2)i C(1)i, dondeC(1)i= (a1, b1](a2, b2] (ai, bi](, ai+1](, xi+2] (, xk]y C(2)i= (a1, b1](a2, b2] (ai, bi](, bi+1](, xi+2] (, xk].Como adems se tiene C(1)i C(2)i, se tendrPX(Ci+1) = PX(C(2)i) PX(C(1)i).Como (4.11) vale para h = i tendremosPX(Ci+1) = 41 (b1, a1) . . . 4i (bi, ai) F (x1, x2, . . . , xi, bi+1, xi+2, . . . , xk)41 (b1, a1) . . . 4i (bi, ai) F (x1, x2, . . . , xi, ai+1, xi+2, . . . , xk) .Luego (4.11) vale para h = i + 1. Esto muestra que (4.11) vale para todoh k. Haciendo h = k se obtiene el Teorema. 2Luego podemos enunciar una propiedad adicional que satisface una fun-cin de distribucin conjuntaPropiedad 4.5 Si FX es la funcin de distribucin conjunta del vectoraleatorio X = (X1, . . . , Xk) para todo a1 < b1, , ak < bk se debe cumplirque41 (b1, a1) . . . 4k1 (bk1, ak1) 4k (bk, ak) FX (x1,x2, . . . , xk) 0.El siguiente Teorema generaliza para vectores aleatorios el Teorema deExtensin para variables aleatorias.76Teorema 4.5 Sea F : Rk[0, 1] una funcin que satisface las propiedades4.1, 4.2, 4.3, 4.4 y 4.5. Luego existe una nica funcin de probabilidad P :Bk[0, 1] , tal que para todo (x1, x2, . . . , xk) Rkse cumpleP ((, x1] (, x2] (, xk]) = F (x1, x2, . . . , xk) .Demostracin. No se dar la demostracin en este curso. Utiliza argumentosde la Teora de la Medida. 2Corolario 4.1 Sean X = (X1, X2, . . . , Xk) y X = (X1, X2, . . . , Xk) dosvectores aleatorios. Supongamos que para todo x1, x2, . . . xk se tiene queFX(x1, . . . , xk) = FX(x1, . . . , xk).Luego tambin se cumple que para todo B BkPX(B) = PX(B).Demostracin. Basta con observar que para todo (x1, . . . , xk) RkFX (x1, x2, . . . , xk) = FX (x1, x2, . . . , xk)= PX ((, x1] (, x2] . . . (, xk]) .Por lo tanto como PX y PX son extensiones de FX deben coincidir porunicidad de la extensin. 2Corolario 4.2 Si F satisface propiedades 4.1, 4.2, 4.3, 4.4 y 4.5. entoncesexiste un vector aleatorio X = (X1, . . . , Xk) tal queFX = F.Demostracin. Sea Rk, Bk, PF el espacio de probabilidad tal que PF es laextensin de F. Luego para todo (x1, . . . , xk) RkF (x1, x2, . . . , xk) = PF ((, x1] (, x2] (, xk]) .Denimos el vector aleatorio X = (X1, . . . , Xi, . . . , Xk) de forma tal que Xisea la proyeccin sobre la coordenada i-sima. Es decir Xi : RkR estdenida porXi (x1, x2, . . . , xk) = xiObservemos que para todo i, 1 i k se tiene queX1i((, xi]) = R R (, xi] R R,77y queFX (x1, x2, . . . , xk)= PX((, x1] (, x2] (, xk])= PF(X1((, x1] (, x2] (, xk]))= PF k\i=1X1i((, xi])!= PF ((, x1] (, x2] (, xk])= F (x1, x2, . . . , xk) . 24.4. Algunas propiedades de vectores aleatorios.Sea un vector X = (X1, . . . , Xk) con funcin de distribucin FX. El sigu-iente teorema muestra como se obtiene la funcin de distribucin del vectorformado con un subconjunto de componentes eX = (Xi1, Xi2, . . . , Xih) paracualquier subconjunto de ndices 1 i1 < i2 < < ih k.Teorema 4.6 Sea X = (X1, . . . , Xk) un vector aleatorio de dimensin k.Sea A = {i1, . . . , ih} {1, 2, . . . , k} y B = {i : 1 i k, i / A} ={j1, . . . jr]. Entonces, si eX = (Xi1, Xi2, . . . , Xih), se tieneFeX(xi1, . . . xih) = lmxj1,...,xjrFX(x1, x2, . . . , xk).Demostracin. Para facilitar la notacin supongamos que A = {1, 2, . . . , h}y luego B = {h + 1, . . . , k}. Sean {yh+1,j}jN, . . . , {yk,,j}jN, sucesionescrecientes tendiendo a . Luego bastar probar quelmj FX(x1, . . . xh, yh+1,j, . . . , yk,j]) = FeX(x1, . . . , xh). (4.12)Consideremos la sucesin de eventosCj = (, x1] (, xh] (, yh+1,j] (, yk,j]es creciente y[j=1Cj = (, x1] (, xh] R R.78LuegoFeX(x1, . . . , xh) = PeX((, x1] (, xh])= P h\i=1{ : Xi() xi}!= P h\i=1{ : Xi() xi}!k\i=h+1{ : Xi() R}!!= PX((, x1] (, xh] R R)= lmjPX(Cj)= lmj PX((, x1] (, xh] (, yh+1,j] (, yk,j])= lmj FX(x1, . . . xh, yh+1,j, . . . , yk,j]).y luego (4.12) vale. 2Denicin 4.5 Diremos que g : RkR es medible Borel si para todo x Rse tiene que g1((, x]) Bk.Observacin. Una funcin medible Borel puede interpretarse como unavariable aleatoria en el espacio (Rk, Bk). Como en este curso solo consider-amos funciones medibles Borel, se las llamar simplemente funcones medi-blesEn particular se tendrTeorema 4.7 Si g : RkR es continua entonces g es medible.Demostracin. Siendo (, x] cerrado se tiene que g1((, x]) Bky porlo tanto es medible. 2Ejercicio. Probar el siguiente teorema.Teorema 4.8 Sea X = (X1, X2, . . . , Xk) un vector aleatorio sobre un es-pacio de probabilidad (, A, P) y g : RkR una funcin medible. EntoncesY = g (X) : R es una variable aleatoria.Ahora podemos probar lo siguiente.Teorema 4.9 Si X e Y son varibles aleatorias, entonces(i) Z = X +Y es una variable aleatoria.79(ii) Z = XY es una variable aleatoria.(iii) Si P (Y = 0) = 0 entonces Z = X/Y es una variable aleatoria.Demostracin. Se trata de escribir a Z como imagen de X e Y usando unafuncin g medible.(i) Denimos g : R2R, g (x, y) = x+y. Como g es continua es medible.Luego si tomamos W = (X, Y ) se tiene que Z = g (W) = X + Y esuna variable aleatoria.(ii) y (iii) La demostracin de (ii) y (iii) se deja como ejercicio. 2Denicin 4.6 Sea g : RkRh, es decir g = (g1, g2, . . . , gh) tal que paracada j = 1, 2, . . . , h, gj : RkR.Diremos que g es medible sii gj es medible para cada j = 1, 2, . . . , h.Teorema 4.10 Sea X = (X1, X2, . . . , Xk) un vector aleatorio y g : RkRjuna funcin medible. Entonces Z = g (X) es un vector aleatorio de dimen-sin j.Demostracin. Se deja como ejercicio.24.5. Independencia de variables aleatorias.4.5.1. Algunas consideraciones heursticas.Hemos visto con anterioridad lo que signicaba la independencia de even-tos. Brevemente recordemos que una familia de eventos es independiente sila ocurrencia de algunos de ellos no incide sobre la probabilidad de ocurren-cia del otro. Ms precisamente, un conjunto de eventos A1, A2, . . . , Ak sonindependientes si para toda eleccin 1 i1 < i2 < < ih kP (Ai1 Ai2 Aih) =hYj=1P Aij.Ahora queremos denir la independencia de un conjunto de variablesaleatorias. Queremos dar respuesta a la pregunta en qu medida la infor-macin referida a una variable aleatoria X incide en el conocimiento de losvalores de la variable aleatoria Y . Por ejemplo la inacin y la emisinmonetaria son independientes ? El peso de un individuo y su presin san-gunea son independientes? Para denir el concepto de independencia devariables aleatorias utilizaremos la nocin de independencia de eventos.80Denicin 4.7 Sean X1, X2, , Xk variables aleatorias, denidas sobreun mismo espacio de probabilidad (, A, P) . Diremos que dichas variablesson independientes sii cualquiera sean los conjuntos B1, B2, , Bk B (Borelianosen R), los eventos X1j(Bj) , j = 1, 2, .., k son independientes.Los dos siguientes teoremas dan caracterizaciones de la propiedad deindependencia de un conjunto de variables aleatorias.Teorema 4.11 Las variables aleatorias X1, , Xk son independientes si yslo si para toda eleccin de conjuntos borelianos B1, B2, , Bk vale queP__k\