Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares...

29
Cap´ ıtulo 1 Modelo de Probabilidad 1.1 Definiciones y Resultados B´ asicos Sea Ω = un conjunto arbitrario. Definici´ on 1.1 Una familia no vac´ ıa F de subconjuntos de Ω es llamada una σalgebra de subconjuntos de Ω si satisface las siguientes condiciones: 1. Si A ∈F , entonces A c ∈F . 2. Si A n ∈F , para toda n 1, entonces n1 A n ∈F En todo lo que sigue F denotar´ a una σalgebra de subconjuntos de Ω y a los elementos de F los llamaremos eventos. Definici´ on 1.2 Una probabilidad sobre , F ) es una funci´ on P : F→ R que satisface las siguientes condiciones: 1. Para todo A ∈F , 0 P [A] 1, 2. P [Ω] = 1, 3. Si (A n ) n1 , es una sucesi´ on de eventos tales que A i A j = para toda i = j , entonces P n1 A n = n1 P [A n ] 1

Transcript of Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares...

Page 1: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

Capıtulo 1

Modelo de Probabilidad

1.1 Definiciones y Resultados Basicos

Sea Ω 6= ∅ un conjunto arbitrario.

Definicion 1.1 Una familia no vacıa F de subconjuntos de Ω es llamadauna σ-algebra de subconjuntos de Ω si satisface las siguientes condiciones:

1. Si A ∈ F , entonces Ac ∈ F .

2. Si An ∈ F , para toda n ≥ 1, entonces⋃n≥1

An ∈ F

En todo lo que sigue F denotara una σ-algebra de subconjuntos de Ω y a loselementos de F los llamaremos eventos.

Definicion 1.2 Una probabilidad sobre (Ω,F) es una funcion P : F → Rque satisface las siguientes condiciones:

1. Para todo A ∈ F , 0 ≤ P [A] ≤ 1,

2. P [Ω] = 1,

3. Si (An)n≥1, es una sucesion de eventos tales que Ai ∩Aj = ∅ para todai 6= j, entonces

P

⋃n≥1

An

=∑n≥1

P [An]

1

Page 2: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

2 CAPITULO 1. MODELO DE PROBABILIDAD

Al conjunto Ω le llamaremos espacio muestral y a la terna (Ω,F , P ) es-pacio de probabilidad.

A continuacion consideraremos (Ω,F , P ) un espacio de probabilidad fijo,arbitrario, todos los eventos en consideracion seran elementos de la σ-algebraF .

Teorema 1.1 (Propiedades de la Probabilidad).

1. P [∅] = 0.

2. Si A1, ..., An son eventos tales que Ai∩Aj = ∅ para toda i 6= j, entonces

P

[n⋃

k=1

Ak

]=

n∑k=1

P [Ak].

3. Si A es un evento, entonces

P [Ac] = 1− P [A].

4. Sean A y B eventos, entonces

P [A] = P [A ∩B] + P [A ∩Bc].

5. Si A y B son eventos tales que A ⊂ B, entonces

P [A] ≤ P [B].

6. Sea An, n ∈ I una particion finita o numerable de Ω (i.e. Ai∩Aj = ∅,para toda i 6= j, ∪n∈IAn = Ω) tales que An ∈ F para toda n ∈ I,entonces para todo evento A,

P [A] =∑n∈I

P [A ∩ An].

7. Sean A y B eventos, entonces

P [A ∪B] = P [A] + P [B]− P [A ∩B].

Page 3: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

1.1. DEFINICIONES Y RESULTADOS BASICOS 3

8. Mas generalmente, sean A1, ..., An eventos, entonces

P [A1 ∪ A2 ∪ · · · ∪ An] =n∑

j=1

P [Aj]−∑i <

∑j

P [Ai ∩ Aj]

+∑ ∑

i<j<k

∑P [Ai ∩ Aj ∩ Ak]

− · · ·+ (−1)n+1P [A1 ∩ A2 ∩ · · · ∩ An].

A esta propiedad se le conoce como la Regla de la Adicion-Sustraccion.

9. Si A1, A2, ..., An son eventos, entonces

P

[n⋃

k=1

Ak

]≤

n∑k=1

P [Ak].

10. Si An, n ≥ 1 es una sucesion de eventos, entonces

P

⋃n≥1

An

≤ ∑n≥1

P [An].

Ejemplo 1.1 Sea Ω = a1, ..., an un conjunto finito, F = P(Ω), la potenciade Ω, esto es, la familia de todos los subconjuntos de Ω. Supongamos quetodos los elementos de Ω son igualmente probables, es decir,

P [ai] =1

n, i = 1, ..., n

Entonces para todo A ∈ P(Ω),

P [A] =Card(A)

n,

donde, Card(A) es la cardinalidad de A. A esta probabilidad se le conocecomo la definicion Clasica de la Probablidad.

Ejemplo 1.2 Sea Ω ⊂ R2, tal que Area de Ω < ∞, F una σ-algebra desubconjuntos de Ω que contiene a todos los conjuntos a los cuales se les puedecalcular el area. Para cada A ∈ F definimos la probabilidad de A como sigue:

P [A] =Area de A

Area de Ω.

A la probabilidad ası definida se le conoce como Probabilidad Geo- me-trica.

Page 4: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

4 CAPITULO 1. MODELO DE PROBABILIDAD

Teorema 1.2 Continuidad de la Probabilidad

(i) Sea (An)n≥1 una sucesion creciente de eventos (es decir, An ⊂ An+1),entonces

P

⋃n≥1

An

= limn→∞

P [An].

(ii) Sea (An)n≥1 una sucesion decreciente de eventos (es decir, An+1 ⊂ An),entonces

P

⋂n≥1

An

= limn→∞

P [An].

Definicion 1.3 Probabilidad Condicional Sean A y B eventos tales queP [B] 6= 0. La probabilidad condicional de A dado B denotada P [A|B] estadefinida por:

P [A|B] =P [A ∩B]

P [B].

Teorema 1.3 Sea B un evento (fijo) tal que P [B] > 0. Entonces la funcionP [·|B] : F → [0, 1] es una probabilidad, por lo tanto satisface las propiedades1-8 del Teorema 1.1

Definicion 1.4 Sean A1, ..., An eventos. Diremos que son independientes si

P [Ai ∩ Aj] = P [Ai]P [Aj], si i 6= j,

P [Ai ∩ Aj ∩ Ak] = P [Ai]P [Aj]P [Ak], si i 6= j, j 6= k, i 6= k,...

...

P [∩ni=1Ai] =

n∏i=1

P [Ai].

Teorema 1.4 Regla de la Muliplicacion. Sean A1, ..., An eventos talesque P [A1 ∩ · · · ∩ An−1] > 0, entonces

P [A1 ∩ · · · ∩ An] = P [A1]P [A2|A1]P [A3|A1 ∩ A2] · · ·P [An|A1 ∩ · · · ∩ An−1].

Teorema 1.5 Teorema de las Probabilidades Totales. Sea An, n ∈ Iuna particion finita o numerable de Ω, tal que P [An] > 0 para toda n ∈ I,entonces para todo evento A

P [A] =∑n∈I

P [A|An]P [An].

Page 5: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

1.2. EJERCICIOS 5

Teorema 1.6 Formula de Bayes. Sea An, n ∈ I una particion finita onumerable de Ω, tal que P [An] > 0 para toda n ∈ I, entonces para todoevento A

P [Ak|A] =P [A|Ak]P [Ak]∑

n∈I P [A|An]P [An], para toda k ∈ I.

1.2 Ejercicios

1. Consideremos el experimento de lanzar dos monedas y un dado hon-estos.

(a) Describir el espacio muestral Ω.

(b) Expresar los eventos:

A = salen dos aguilas y un numero par B = sale un dos C = sale exactamente un sol y un numero primo

(c) Expresar los siguientes eventos: A y B ocurren, solo B ocurre, Bo C ocurren.

(d) Calcular P [A], P [B], P [C], P [A ∩B], P [B ∪ C].

2. Se lanzan cuatro dados honestos.

(a) Describir el espacio muestral Ω.

(b) Expresar los siguientes eventos

A = el mismo numero sale en los cuatro dados ,B = los numeros que aparecen en los dados son distintos.

(c) Calcular P [A] y P [B].

3. Consideremos el lanzamiento de un dado “no honesto”, tal que losnumeros pares tienen la misma probabilidad de salir, los numeros im-pares tienen la misma probabilidad de salir y cada numero par tiene eldoble de probabilidad de ocurrir que cada numero impar. Calcular laprobabilidad de los siguientes eventos:

Page 6: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

6 CAPITULO 1. MODELO DE PROBABILIDAD

(a) A = sale par.(b) B = sale un numero primo .(c) C = sale un numero impar .(d) D = sale un numero primo impar .

4. Supongamos: P [A] = 0.6, P [A ∩B] = 0.1, P [A ∩ C] = 0.1, P [A ∩B ∩C] = 0.05.

(a) Calcular la probabilidad del evento E2 = A ∩ (B ∪ C).

(b) Si P [B] = 0.4 calcular la probabilidad de que ni A ni B ocurran.

5. En un partido clasico de futbol de America-Guadalajara las apuestasestan de 4 contra 5 a favor del Guadalajara. Segun la estimacion delos apostadores, ¿ cual es la probabilidad de que gane el Guadalajara?.

6. Sean A, B y C tres eventos que satisfacen:

P [A] = P [B] = P [C] =1

3,

P [A ∩B] = P [B ∩ C] = P [A ∩ C] =1

9,

P [A ∩B ∩ C] =1

27.

Calcular:

(a) La probabilidad de que ocurra exactamente uno de los tres eventos.

(b) La probabilidad de que ocurra al menos uno de los tres eventos.

7. El Problema del Encuentro. Abelardo y Eloisa han hecho una cita paraencontrarse en la Iglesia de Nuestra Senora de Paris entre las 12:00 a.my la 1:00 p.m.. Puesto que ambos tienen otros compromisos y ademasno les gusta esperar han acordado que cada uno de ellos esperara solo20 minutos al otro, (es decir, si su companero no llega en el transcursode los 20 minutos se retira). Supongamos que los tiempos de llegadade cada uno de ellos son independientes y uniformes en el intervalo deuna hora. Calcular la probabilidad de que se encuentren Abelardo yEloisa.

Page 7: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

1.2. EJERCICIOS 7

8. Una urna contiene N bolas numeradas del 1 al N . Se extraen n bolassin reemplazo (1 ≤ n ≤ N). Se tiene ademas que las bolas numeradasdel 1 al m son rojas (m < N) y las bolas numeradas del m + 1 al Nson blancas. Sea Ak el evento “la k-esima bola extraıda es roja”.

(a) ¿Cual es el conjunto Ω de resultados posibles?. Calcular la cardi-nalidad de Ω.

(b) Calcular P [Ak].

(c) Calcular P [Ak ∩ Aj].

9. Se colocan N personas al azar en una cola. ¿Cual es la probabilidadde que el numero de personas que separan a Pedro y Juan sea igual ak (1 ≤ k ≤ N − 2).

10. Se colocan N personas al azar en una mesa redonda. ¿Cual es la prob-abilidad de que el numero de personas que separan a Pedro y Juan seaigual a k (1 ≤ k ≤ N − 2). (se cuentan las personas en el sentido en elque hay menos).

11. (a) Un cartero reparte al azar n cartas en n buzones, una por buzon.Calcular la probabilidad p(n) de que al menos una carta vaya asu destinatario y calcular limn→∞ p(n).

(b) El cartero tiene p papeles publicitarios, elige uno de los buzones alazar y mete uno de los papeles. Continua con este procedimientop veces (tantas veces como papeles publicitarios tiene).

(i) ¿Cual es el numero de posibles reparticiones de los papelespublicitarios en los buzones?.

(ii) ¿Cual es la probabilidad qk(n, p) de que un buzon contenga kpapeles publicitarios?.

12. Se lanzan un dado rojo y uno negro, ambos equilibrados. Calcular lasprobabilidades siguientes:

(a) Obtener un 3 con el dado rojo sabiendo que la suma de los puntoses 6.

(b) Obtener un numero par con el dado rojo sabiendo que la suma delos puntos es 6.

Page 8: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

8 CAPITULO 1. MODELO DE PROBABILIDAD

(c) Obtener un numero par con el dado rojo sabiendo que la suma delos puntos es a lo mas 6.

(d) Obtener al menos un numero par, sabiendo que la suma de lospuntos es a lo mas 10.

13. Supongamos que tenemos una urna I con 20 focos de los cuales 4 sondefectuosos y 16 no son defectuosos y otra urna II que contiene un focodefectuoso y uno no defectuoso. Consideremos el siguiente experimento:

Se lanza un dado honesto si la cara que cae es la 1 o la 2, se seleccionaal azar un foco de la urna I, si no caen esas caras se elige al azar unfoco de la urna II. Calcular la probabilidad de que el foco elegido seadefectuoso.

14. (a) De un ejemplo de un experimento y tres eventos tales que seanindependientes por parejas pero no mutuamente independientes.

(b) De un ejemplo de tres eventos tales que P [A∩B∩C] = P [A]P [B]P [C]y que no sean independientes.

15. Independencia condicional:

Dos eventos A y B se dice que son condicionalmente independientes aun evento C si

P [A ∩B|C] = P [A|C]P [B|C].

Un jugador juega dos veces a los volados (la probabilidad de obtenersol es igual a p, 0 < p < 1). Sean A,B,C los eventos definidos por:

A=“el jugador obtiene sol en el primer lanzamiento”

B=“el jugador obtiene sol en el segundo lanzamiento”

C=“el numero de soles obtenidos en los dos lanzamientos es igual a 1”

Demostrar que A y B son independientes pero que no son condicional-mente independientes al evento C.

16. Una moneda honesta es lanzada dos veces. Sea A el evento ocurreaguila en el primer lanzamiento y B el evento las caras que caen sondistintas. ¿Los eventos A y B son independientes?

17. Demuestre las siguientes proposiciones en caso de ser verdaderas, si sonfalsas de un contraejemplo:

Page 9: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

1.2. EJERCICIOS 9

(a) Si A ∩B = ∅, entonces A y B son independientes.

(b) Si A y B son independientes entonces A ∩B = ∅.(b) Si A y B son independientes, entonces P [A ∪B] = P [A] + P [B].

(e) Si P [A|B] = P [B], entonces P [B|A] = P [A]

18. Sean A,B y C eventos tales que A y B son independientes, B y C sonajenos y A y C son independientes. Si P [A∪B ∪C] = .9, P [B] = .5 yP [C] = .3, calcular P [A].

19. Supongamos que P [A ∪B] = .4 y P [A] = .3 calcule la probabilidad deB en los siguientes casos:

(a) Si A y B son independientes.

(b) Si A y B son ajenos.

20. Sean A y B eventos tales que P [A] = P [B] = 12

y P [A ∪B] = 23

(a) ¿Los eventos A y B son ajenos?

(b) ¿Son independientes?

(c) Calcular P [Ac ∩B]

(d) Calcular P [Ac ∩Bc].

21. Supongamos que los eventos A, B y C son independientes con P [A] =14, P [B] = 1

2y P [A ∪B ∪ C] = 3

4. Calcular P [C].

22. Si los eventos A y B son independientes, demostrar que:

(a) Ac y B son independientes.

(b) A y Bc son independientes.

(c) Ac y Bc son independientes.

23. Demostrar que dos eventos A y B son independientes si y solo si

P [A|B] = P [A|Bc]

24. Supongamos que A y B son eventos independientes. Demostrar:

P [A ∪B] = P [B] + P [A]P [Bc] = P [A] + P [Ac]P [B].

Page 10: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

10 CAPITULO 1. MODELO DE PROBABILIDAD

25. Demostrar:

(a) Si P [A] = 1, entonces A es independiente de cualquier otro eventoB.

(b) Si P [A] = 0, entonces A es independiente de cualquier otro eventoB.

26. Sean A1, ..., An eventos independientes, demuestre que A1 es indepen-diente de ∪n

i=2Ai.

27. Sean A1, ..., An eventos independientes tales que P [∪ni=1Ai] = 1. De-

muestre que al menos uno de los eventos tiene probabilidad igual auno.

28. Un guardia de prision intenta al azar una por una de las n llaves quetiene para abrir una celda. Calcular la probabilidad de que lo logre enel k-esimo ensayo.

29. Una urna contiene 4 bolas numeradas del 1 al 4. Se eligen dos bolasal azar sin reemplazo. Sea A el evento la suma de los numeros de lasbolas extraıdas es 5 y Bi el evento la primera bola tiene el numero i,i = 1, ..., 4. Calcular P [A|Bi], P [Bi|A], i = 1, ..., 4.

Page 11: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

Capıtulo 2

Variables Aleatorias, Funcionesde Densidad y de Distribucion

Definicion 2.1 Sea (Ω,F , P ) un espacio de probabilidad. Una funcion X :Ω → R es llamada una variable aleatoria discreta si

(a)

ω ∈ Ω |X(ω) = x ∈ F , para toda x ∈ R.

(b) Existe un conjunto a lo mas numerable xi, i ∈ I, tal que

P [ω ∈ Ω | X(ω) = x] =

pi, xi, i ∈ I,0, en otro caso.

(2.1)

y ∑i∈I

pi = 1

A la funcion f : R→ [0, 1] definida por:

f(x) = P [ω ∈ Ω | X(ω) = x], (2.2)

se le llama funcion de densidad (o de masa) de la variable aleatoria X.

Definicion 2.2 Una funcion X : Ω → R se dice que es una variable aleato-ria si

ω ∈ Ω | X(ω) ≤ x ∈ F , para toda x ∈ R.

11

Page 12: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

12 CAPITULO 2. FUNCIONES DE DENSIDAD

Se puede demostrar facilmente que una variable aleatoria discreta es unavariable aleatoria.

Denotaremos por:

P [X ∈ A] = P [ω ∈ Ω | X(ω) ∈ A].

En particular,

P [X = x] = P [ω ∈ Ω | X(ω) = x]P [X ≤ x] = P [ω ∈ Ω | X(ω) ∈ (−∞, x]]

Definicion 2.3 Una variable aleatoria es llamada absolutamente continuasi para cada x ∈ R existe una funcion f : R → R+ tal que, para todax ∈ R ∪ −∞,∞

P [X ≤ x] =∫ x

−∞f(x)dx. (2.3)

A la funcion f se le llamara funcion de densidad de la variable aleatoria X.

Definicion 2.4 La funcion de distribucion o funcion de distribucion acumu-lativa F : R→ [0, 1] de una variable aleatoria X se define por:

F (x) = P [X ≤ x], para toda x ∈ R. (2.4)

Observaciones 2.1 1. Si X es una variable aleatoria discreta

F (x) =∑xi≤x

P [X = x], (2.5)

2. Si X es una variable aleatoria absolutamente continua:

F (x) =∫ x

∞f(u)du. (2.6)

3. Si la funcion de distribucion de una variable aleatoria absolutamentecontinua es diferenciable en x, entonces

dF

dx= f(x). (2.7)

Page 13: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

13

4. Si X es una variable aleatoria absolutamente continua se tiene que

P [X = x] = 0, para toda x ∈ R,

de donde,

P [a < X < b] = P [a ≤ X < b] = P [a ≤ X < b] = P [a ≤ X ≤ b].

5. Si X es una variable aleatoria discreta y A ⊂ R:

P [X ∈ A] =∑x∈a

P [X = x].

6. Si X es una variable aleatoria absolutamente continua y A ⊂ R:

P [X ∈ A] =∫

Af(x)dx.

para todo conjunto A para el cual esta integral tiene sentido. En par-ticular, si A = R:

P [X ∈ R] =∫ ∞−∞

f(x)dx = 1.

Teorema 2.1 Propiedades de La funcion de distribucion. Sea X una vari-able aleatoria con funcion de distribucion F , entonces

(a) Para todo x ∈ R, 0 ≤ F (x) ≤ 1.

(b) Para todo x ∈ R F (x) es continua por la derecha con lımites por laizquierda.

(c) La funcion F es no decreciente.

(d) limx→∞ F (x) = 1 y limx→−∞ F (x) = 0.

En todo lo que sigue definiremos las variables aleatorias discretas o absolu-tamente continuas mas conocidas, el nombre que se les da se usa indistin-tamente para la variable aleatoria, la funcion de densidad o la funcion dedistribucion.

Page 14: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

14 CAPITULO 2. FUNCIONES DE DENSIDAD

2.1 Algunas Densidades (Distribuciones) Disc-

retas.

1. La densidad Bernoulli con parametro p (esta variable aleatoria corre-sponde a un experimento Bernoulli, es decir, un experimento con dosposibles resultados que en general se les llama exito y fracaso, la vari-able X asocia el valor 0 al exito y el 1 al fracaso):

P [X = x] =

px(1− p)1−x, si x = 0, 1,0, en otro caso.

(2.8)

2. La densidad Binomial con parametros n (numero de ensayos indepen-dientes Bernoulli) y p (probabilidad de exito en cada ensayo). Estavariable aleatoria representa el numero de exitos en los n ensayos:

P [X = x] =

(nx

)px(1− p)n−x, si x = 0, 1, ..., n,

0, en otro caso.(2.9)

3. La densidad Uniforme en el conjunto i1, ..., iN ⊂ R (esta densidadse asocia al experimento de elegir un punto al azar en el conjuntoi1, ..., iN:

P [X = x] =

1N, si x = I − 1, ..., iN ,

0, en otro caso.(2.10)

4. La densidad Geometrica con parametro p (probabilidad de exito enun ensayo Bernoulli). Esta variable aleatoria representa el numero deensayos bernoulli independientes antes del primer exito:

P [X = x] =

p(1− p)x, si x = 0, 1, 2, ...,0, en otro caso.

(2.11)

5. La densidad Poisson con parametro λ > 0. Esta variable aleatoriarepresenta el numero de eventos raros que ocurren en una unidad detiempo:

P [X = x] =

e−λλx

x!, si x = 0, 1, 2, ...,

o, en otro caso.(2.12)

Page 15: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

2.2. ALGUNAS DISTRIBUCIONES CONTINUAS 15

6. La densidad Binomial Negativa tambien llamada distribucion Pascal,con parametros p (probabilidad de exito en un ensayo Bernoulli) yr. Esta variable aleatoria representa el numero de fracasos antes delr-esimo exito, al considerar una sucesion de ensayos Bernoulli indepen-dientes:

P [X = x] =

(r + x+ 1r − 1

)pr(1− p)x, si x = 0, 1, ....,

0, en otro caso.(2.13)

7. La densidad Hipergeometrica con parametros N (numero total de el-ementos) K (numero de elementos defectuosos), n (tamano de unamuestra sin reemplazo). Esta variable aleatoria denota el numero deelementos defectuosos en una muestra de tamano n de una poblacionde tamano N :

P [X = x] =

(kn

)(N − kN − x

)(Nn

) , si x = 0, 1, ...,mink, n,

0, en otro caso.

(2.14)

2.2 Algunas Distribuciones Continuas

1. La distribucion Uniforme o Rectangular sobre (a, b), a, b ∈ R, deno-tada U(a, b). Esta variable aleatoria esta asociada con el experimentode elegir un punto al “azar” en el intervalo (a, b) y tiene funcion dedensidad:

f(x) =

1

b−a, si x ∈ (a, b),

0, en otro caso.(2.15)

2. La distribucion Exponencial con parametro θ > 0, denotada por exp(θ).esta variable aleatoria representa el tiempo de espera hasta la ocurren-cia de algun evento, es la version continua de una variable aleatoriaGeometrica. La funcion de densidad esta dada por:

f(x) =

θe−θx, si x > 0,0, en otro caso.

(2.16)

Page 16: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

16 CAPITULO 2. FUNCIONES DE DENSIDAD

3. La distribucion Normal o Gaussiana con parametros µ (la media) y σ2

(la varianza), denotada por N(µ, σ2) con funcion de densidad:

f(x) =1

σ√

2πe−

(x−µ)2

2σ2 , −∞ < x <∞. (2.17)

4. La distribucion Gamma con parametros θ > 0 (parametro de escala)y α > 0 (parametro de forma) denotada Γ(α, θ). Si α es un entero,representa el tiempo de espera hasta la ocurrencia α-esimo exito. Esla version continua de una variable aleatoria Binomial Negativa y tienecomo funcion de densidad

γ(x) =

θα

Γ(α)e−θxxα−1, si x > 0,

0, en otro caso.(2.18)

Donde,

Γ(α) =∫ ∞0

xα−1e−xdx.

por integracion por partes se tiene:

Γ(α+ 1) = αΓ(α).

Para n ∈ N ,

Γ(n+ 1) = n!

Γ(n+1

2) =

1 · 3 · 5 · · · (2n− 1)

2nΓ(

1

2),

donde

Γ(1

2) =

√π.

Cuando θ = 1/2 y 2α = ν = entero, la distribucion Gamma se conocecomo como distribucion ji-cuandrada con ν grados de libertad y se de-nota por χ2

ν .

Si α = 1, la distribucion Gamma es simplemente la distribucion exp(θ).

5. La distribucion Beta con parametros a > 0 y b > 0, denotada por:Beta(a, b), con funcion de densidad:

β(x) =

Γ(a+b)Γ(a)Γ(b)

xa−1(1− x)b−1, si 0 < x < 1,

0, en otro caso.(2.19)

Page 17: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

2.3. EJERCICIOS DEL CAPITULO 2 17

Como se sabeΓ(a+ b)

Γ(a)Γ(b)= B(a, b),

donde B(a, b) es la funcion beta definida por:

B(a, b) =∫ 1

0xa−1(1− x)b−1dx, a > 0, b > 0.

Si a = b = 1, la distribucion Beta es una distribucion U(0, 1).

6. La distribucion Cauchy con funcion de densidad:

f(x) =1

π

1

1 + x2, 0 < x <∞. (2.20)

2.3 Ejercicios del Capıtulo 2

1. Sea X una variable aleatoria con funcion de densidad fX dada por:

fX(x) =

12, si x = 0,

14, si x = 1,

18, si x = 2,

18, si x = 3,

0, en otro caso.

Calcular y graficar la funcion de distribucion FX de la variable aleatoriaX.

2. Sea X una variable aleatoria con funcion de distribucion FX dada por:

FX(x) =

0, si x < 0,x4, si 0 <≤ x < 1,

12

+ x−14, si 1 ≤ x < 2,

1112, si 2 ≤ x < 3,

1, si x ≥ 3.

Calcular

(a) P [X = i], i = 1, 2, 3.

(b) P [12< X < 3

2].

Page 18: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

18 CAPITULO 2. FUNCIONES DE DENSIDAD

3. Supongamos que X es una variable aleatoria Binomial Negativa conparametros p y r. Calcular la densidad de X + r.

4. Sea N un entero positivo y

f(x) =

c2x, si x = 1, 2, ..., N,0, en otro caso.

En cuentre el valor de c tal que f es una funcion de densidad.

5. Sea N ∈ N y g : R→ R definida por:

g(x) =

x, si x = 1, 2, ..., N,0, en otro caso.

Encontrar c tal que la funcion f(x) = cg(x) es una funcion de densidady calcular la funcion de distribucion correspondiente.

6. Sea g : R→ R definida por:

g(x) =

px, si x = 0, 1, ..., N − 1,∑∞

j=N pj,

0, en otro caso,

donde 0 < p < 1. Encontrar c ∈ R tal que f(x) = cg(x) es una funcionde densidad y calcular la funcion de distribucion asociada. a f .

7. Sea X una variable aleatoria con funcion de densidad dada por:

f(x) =

0.1, si x = −3,0.2, si x = −1,0.15, si x = 0,0.2, si x = 1,0.1, si x = 2,0.15, si x = 3,0.05, si x = 5,0.05, si x = 8,0, en otro caso.

Calcular las siguientes probabilidades:

(a) P [X < 0].

Page 19: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

2.3. EJERCICIOS DEL CAPITULO 2 19

(b) P [X es par ].

(c) P [1 ≤ X ≤ 8].

(d) P [X = 3 | X ≤ 0].

(e) P [X ≥ 3 | X > 0].

8. SeaX una variable aleatoria geometrica con parametro p y Y la variablealeatoria definida por:

Y =

X, si X < M,M, si X ≥M,

donde M es una constante positiva, es decir Y = min(X,M). Calcularla densidad de Y y compararla con la del ejercicio anterior.

9. Sea X una variable aleatoria N(0, σ2) y Y = min(X,M), donde M ∈ Res una constante:

(a) Calcular la funcion de distribucion de Y .

(b) Calcular P [Y = y], y ∈ R.

(c) La variable aleatoria Y es continua o discreta?.

10. Sea X una variable aleatoria Γ(0, σ2) y Y la variable aleatoria Y =max(X,M), donde M ∈ R es una constante, es decir,

Y =

X, si X > M,M, si X ≤M.

(a) Calcular la funcion de distribucion de Y .

(b) Calcular P [Y = y], y ∈ R.

(b) La variable aleatoria Y es continua o discreta?

Considerar dos casos: M > 0 y M ≤ 0.

11. Consideremos el experimento de elegir un punto al azar en el intervalo(−10, 10). Sea X la variable aleatoria:

X(ω) =

ω, si ω ∈ [−5, 5],−5, si ω ∈ (−10,−5),5, si ω ∈ (5, 10).

Page 20: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

20 CAPITULO 2. FUNCIONES DE DENSIDAD

(a) Calcular la funcion de distribucion de X.

(b) Calcular P [X = x], x ∈ R.

(c) La variable aleatoria X es discreta o continua?.

12. Si Y es una variable aleatoria U(0, 1). Demostrar que para a > 0, b ≥ 0tales que a+ b ≤ 1 la P [a ≤ Y ≤ a+ b] depende unicamente del valorde b.

13. Si un paracaidista cae en un punto al azar sobre una lınea entre lassenales A y B, calcular:

(a) La probabilidad de caiga mas cerca de A que de B.

(b) La probabilidad de que su distancia a A sea mas de tres veces sudistancia de B.

14. Sea Y una variable aleatoria Geometrica con parametro p.

(a) Demostrar que para todo entero positivo a

P [Y > a] = (1− p)a.

(b) Demostrar que para a y b enteros positivos,

P [Y > a+ b | Y > a] = (1− p)b = P [Y > b]

(c) De un argumento intuitivo de la igualdad anterior usando la inter-pretacion de una variable aleatoria geometrica.

15. Sea Y una variable aleatoria discreta con valores en los enteros positivosque satisface:

P [Y > a+ b | Y > a] = (1− p)b = P [Y > b], para todo a, b ∈ N

Demostrar que Y es una variable aleatoria geometrica.

16. Sea Y una variable aleatoria exp(θ). Demostrar que para todo a, b ∈ R+

P [Y > a+ b | Y > a] = P [Y > b].

Observese que esta propiedad es analoga a la que satisface la densidadgeometrica, para a, b enteros positivos. (Ver Ejercicio 14).

Page 21: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

2.3. EJERCICIOS DEL CAPITULO 2 21

17. Sea Y una variable aleatoria positiva que satisface:

P [Y > a+ b | Y > a] = P [Y > b] para todo a, b ∈ R+.

Demostrar que Y es una variable aleatoria exponencial. Esta propiedades analoga a la que satisface la densidad geometrica, (ver Ejercicio 15).

18. Se tiene una urna con n fichas numeradas. Se extrae una ficha alazar y se vuelve a depositar en la urna. Se repite este proceso hastaobtener por primera vez una ficha que se haya obtenido antes. SeaX la variable aleatoria que denota el numero de extracciones, es decirel numero de extracciones necesarias hasta obtener una ficha repetida.Calcular la distribucion de X. OJO REVISAR ESTE ENUNCIADO,COMPARARLO CON EL QUE ESTABA.

19. Sea X una variable aleatoria Poisson con parametro λ > 0. Cual es elvalor de k que maximiza la P [X = k], k ≥ 0. Sugerencia: Considerar:

P [X=i]P [X=i−1]

.

20. Supongamos que se realizan n lanzamientos independientes de unamoneda con probabilidad p de obtener sol. Demostrar que la prob-abilidad de obtener un numero par de soles en los n lanzamientos es:

1

2[1 + (q − p)n],

donde q = 1− p.

Sugerencia:

Probar la identidad:

[n2]∑

i=0

(n2i

)p2iqn−2i =

1

2[(p+ q)n + (q − p)n],

donde [n2] es el maximo entero menor o igual que n

2.

21. Aproximacion de la Binomial a la Poisson. Para cada n, n = 1, 2, ....sea Xn una variable aleatoria Binomial con parametro n y pn tales quenpn = λ. Demostrar que para cada k, k = 1, 2, ....,

limn→∞

P [Xn = k] = e−λλk

k!.

Page 22: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

22 CAPITULO 2. FUNCIONES DE DENSIDAD

El mismo resultado es valido si solo se tiene limn→∞ npn = λ. Observeseque este resultado nos dice que si X es una variable aleatoria Binomialcon parametros n y p su funcion de densidad es muy proxima al densi-dad Poisson con parametro np.

22. Sea X una variable aleatoria Poisson con parametro λ > 0. Demues-trar:

P [X es par ] =1

2[1 + e−2λ],

usando:

(a) Usando el resultado del Ejercicio 20 y la Aproximacion de la Bi-nomial a la Poisson (Ejercicio 21).

(b) Verificando directamente la igualdad usando la expansion en seriede e−λ + eλ.

23. Supongamos que se tiene una urna con fichas numeradas del 1 al N , dela cual se extrae una muestra sin reemplazo de tamano n, n ≤ N . SeaY la variable aleatoria que denota el numero mas grande seleccionado.Encontrar la funcion de densidad de Y .

Sugerencia: Usar∑r

i=0

(i+ k − 1k − 1

)=

(r + kk

)para r y k enteros

positivos.

24. Demostrar la siguiente igualdad:

n∑i=0

e−λλi

i!=

1

n!

∫ ∞λ

e−xxndx.

Page 23: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

Capıtulo 3

Momentos de VariablesAleatorias

3.1 Definiciones y Resultados Basicos.

En todo lo que sigue consideraremos (Ω,F , P ) un espacio de probabilidadfijo, las variables aleatorias en consideracion estaran definidas en este espacio.

Definicion 3.1 Sea X una variable aleatoria. La media o esperanza de X,denotada E[X], esta definida por:

1.E[X] =

∑j

xjP [X = xj],

si X es una variable aleatoria discreta y se satisface∑j∈J

|xj|fX(xj) <∞, (3.1)

donde el conjunto xj, j ∈ J es el rango de la variable aleatoria X.

2.E[X] =

∫ ∞−∞

xfX(x)dx,

Si X es una variable aleatoria continua y se satisface∫ ∞−∞

|x|fX(x)dx <∞. (3.2)

23

Page 24: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

24 CAPITULO 3. MOMENTOS DE VARIABLES ALEATORIAS

Si las espresiones (3.1) o (3.2) se cumplen se dice que la variable aleatoriaX tiene esperanza finita.

El siguiente Teorema conocido como el Teorema del Estadıstico Inconcientenos da una definicion equivalente para la existencia y el valor de la esperanzade una funcion de una variable aleatoria.

Teorema 3.1 Sea X una variable aleatoria y g : R → R una funcion talque Y = g(X) es una variable aleatoria. Entonces Y tiene esperanza finitasi solo si

∑j∈J

|g(xj)|fX(xj) <∞, (3.3)

si X es una variable aleatoria discreta.∫ ∞−∞

|g(x)|fX(x)dx <∞. (3.4)

si X es una variable aleatoria continua. Si las condiciones (3.3) o (3.4) sesatisfacen, entonces

1.E[g(X)] =

∑j∈J

g(xj)fX(xj), (3.5)

si X es una variable aleatoria discreta.

2.E[g(X)] =

∫ ∞−∞

g(x)fX(x)dx, (3.6)

si X es una variable aleatoria continua.

Teorema 3.2 Propiedades de la Esperanza. Sea X una variable aleato-ria y g1, g2 : R→ R funciones tales que g1(X) y g2(X) son variables aleato-rias con esperanza finita, entonces:

1. Para toda constante c ∈ R

E[c] = c.

2. Para todo c1, c2 ∈ R,

E[c1g1(X) + c2g2(X)] = c1E[g1(X)] + c2E[g2(X)].

Page 25: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

3.1. DEFINICIONES Y RESULTADOS BASICOS. 25

3. Si para toda x ∈ R, g1(x) ≤ g2(x), entonces

E[g1(X)] ≤ E[g2(X)].

Definicion 3.2 Sea X una variable aleatoria tal que Xn tiene esperanzafinita. Se define el momento de orden n de X como la E[Xn].

Teorema 3.3 Sea X una variable aleatoria con momento de orden n finito,entonces

1. E[Xr] existe para todo r ≤ n

2. E[(X − a)r] existe para todo r ≤ n y para todo a ∈ R.

Si a = E[X], entonces E[(X − E[X])r] se conoce como el momento centralde orden r. En particular si r = 2, E[(X − E[X])2] es llamada la varianzade X, se denota V ar[X] y

V ar[X] = E[(X − E[X])2] = E[X2]− (E[X])2. (3.7)

Definicion 3.3 Cuantil. Sea q ∈ [0, 1]. El q-esimo cuantil de una variablealeatoria X o de su funcion de distribucion FX , denotado por ψq esta definidocomo:

minψ ∈ R | FX(ψ) ≥ q.En particular ψ.5 es llamado la mediana y se denota por med(X) o medX

Observese que si X es una variable continua:∫ med(X)

−∞f(x)dx =

1

2=∫ ∞

med(X)f(x)dx.

Definicion 3.4 Momentos Factoriales. Sea X una variable aleatoria yr ∈ N . El r-esimo momento factorial de X esta definido por:

E[X(X − 1) · · · (X − r + 1)],

si esta esperanza es finita.

Teorema 3.4 Sea X una variable aleatoria y g : R → R+ una funcion, talque g(X) es una variable aleatoria con esperanza finita, entonces, para todoε > 0,

P [|X| ≥ ε] ≤ E[g(X)]

g(ε)(3.8)

Page 26: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

26 CAPITULO 3. MOMENTOS DE VARIABLES ALEATORIAS

Corolario 3.1 Desigualdad de Markov. Supongamos que para algunan > 0, X tiene momento de orden n finito, entonces para todo ε > 0,

P [|X| ≥ ε] ≤ E[|Xn|]εn

. (3.9)

En particular, si n = 2 se tiene

P [|X| ≥ ε] ≤ E[X2]

ε2. (3.10)

esta ultima desigualdad es conocida como la Desigualdad de Chebyshev.

Teorema 3.5 Desigualdad de Jensen. Sea X una variable aleatoria conesperanza finita y g : R→ R una funcion convexa. Entonces

E[g(X)] ≥ g(E[X]) (3.11)

3.2 Ejercicios de Momentos de Variables Aleato-

rias

1. Calcular la esperanza y la varianza de las siguientes variables aleatorias:

(a) X variable aleatoria Bernoulli con parametro p.

(b) X variable aleatoria Binomial con parametros n y p.

(c) X variable aleatoria Poison con parametro λ > 0.

(d) X variable aleatoria Hipergeometrica con parametros N, K y n.

Sugerencia: Calcular La E[X], y la E[X(X − 1)], esta ultima conel Teorema del Estadıstico Inconciente.

(e) X una variable aleatoria Uniforme sobre el conjunto 1, 2, ..., N.

2. Dar un ejemplo de una variable aleatoria discreta que no tiene esper-anza finita.

3. Calcular la esperanza, la E[X2] y la varianza de las siguientes variablesaleatorias:

(a) X variable aleatoria Uniforme en el intervalo (a, b).

Page 27: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

3.2. EJERCICIOS DE MOMENTOS DE VARIABLES ALEATORIAS 27

(b) X variable aleatoria Gamma con parametros α > 0 y λ > 0.

4. Sea X una variable aleatoria Normal con parametros µ = 0 y σ2.

(a) Calcular la E[X].

(b) Calcular la E[X2] usando el teorema del Estadıstico Inconciente.

(c) Calcular la E[X2] directamente de la definicion de esperanza, esdecir utilizando la densidad de X2.

Sugerencia: Usar el calculo del inciso (b) del Ejercicio anterior.

(d) Calcular la varianza de X.

5. Sea X una variable aleatoria continua con funcion de densidad:

fX(x) =

|1− x|, si x ∈ [0, 2],0, en otro caso.

Calcular la esperanza y la varianza de X.

6. Dar un ejemplo de una variable aleatoria continua que no tiene esper-anza finita.

7. Sea X una variable aleatoria con esperanza µ y varianza σ2. Demostrarque la funcion

g(z) = E[(X − z)2],

se minimiza cuando z = µ.

8. Sea X una variable aleatoria continua con mediana m, demostrar quela funcion

g(z) = E[|X − z|],

se minimiza en z = m.

9. Sean a1, a2 ∈ R tales que P [a1 ≤ X ≤ a2] = 1. Demostrar:

(a) X tiene momentos de todos los ordenes.

(b) a1 ≤ E[X] ≤ a2.

(c) V ar[X] ≤ (a2−a1)2

4.

Page 28: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

28 CAPITULO 3. MOMENTOS DE VARIABLES ALEATORIAS

10. Sea X una variable aleatoria discreta con valores en los N ∪ 0. De-mostrar que X tiene esperanza finita si y solo si

∞∑k=0

P [X ≥ k] <∞.

En este caso

E[X] =∞∑

k=0

P [X ≥ k].

11. Sea X una variable aleatoria Geometrica con parametro p.

(a) Calcular la E[X] directamente de la definicion de esperanza.

(b) Calcular la E[X] usando el resultado del Ejercicio anterior.

12. Sea X una variable aleatoria positiva con funcion de distribucion FX .Demostrar que X tiene esperanza finita si y solo si∫ ∞

0(1− FX(x))dx <∞.

En este caso,

E[X] =∫ ∞0

(1− FX(x))dx.

Compare este resultado con el del Ejercicio 13.

13. Sea X una variable aleatoria Exponencial con parametro λ > 0.

(a) Calcular la E[X] directamente de la defincion de esperanza.

(b) Calcular la E[X] usando el resultado del Ejercicio anterior.

14. Sea X una variable aleatoria con funcion de distribucion FX . De-mostrar que X tiene esperanza finita si y solo si las dos integralessiguientes son finitas: ∫ ∞

0(1− FX(x))dx,∫ 0

−∞F (x)dx.

En este caso se tiene

E[X] =∫ ∞0

(1− FX(x))dx−∫ 0

−∞F (x)dx.

Page 29: Cap´ıtulo 1 Modelo de Probabilidad · Definici´on 1.1 Una familia no vac´ıa F de ... pares tienen la misma probabilidad de salir y cada ... Se lanza un dado honesto si la cara

3.2. EJERCICIOS DE MOMENTOS DE VARIABLES ALEATORIAS 29

15. Demostrar que una variable aleatoria X tiene momento de orden nfinito si y solo si ∫ ∞

0xn−1P [|X| ≥ x]dx <∞.

En este casoE[|X|n] = n

∫ ∞0

xn−1P [|X| ≥ x]dx.

16. Sea X una variable aleatoria Exponencial con parametro λ > 0.

(a) Calcular la E[X2] usando el teorema del Estadıstico Inconciente.

(b) Calcular la E[X2] usando el resultado del Ejercicio anterior.

(c) Calcular la V ar[X].

17. Sea X una variable aleatoria tal que E[X] = 3 y E[X2] = 13, usarla desigualdad de Chebyshev para determinar una cota inferior paraP [−2 < X < 8].

18. Sea X una variable aleatoria discreta con funcion de densidad:

fX(x) =

18, si x = −1,

68, si x = 0,

18, si x = 1,

0, en otro caso.

Calcular P [|X −E[X]| ≥ 2V ar[X]]. Observar que este ejemplo ilustraque en general, la Desigualdad de Chebyshev no puede mejorarse.

19. Sea X una variable aleatoria con E[X] = µ y tal que P [X ≤ 0] = 0.Demostrar que P [X > 2µ] ≤ 1

2.

20. Demostrar que para toda variable aleatoria X con segundo momentofinito

(a) E[X2] ≥ (E[X])2, usando la definicion de varianza.

(b) E[X2] ≥ (E[X])2, usando la desigualdad de Jensen.