MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013...

70
Facultad de Ciencias ısicas y Matem´ aticas Universidad de Chile Martinez, Servet MA3401 - Probabilidades Transcriptor: Alan Beltr´ an Flores 1 Oto˜ no 2013 1 Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom´ an, que pasaron sus apuntes de clases a las que falt´ e (justificadamente, por supuesto)

Transcript of MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013...

Page 1: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Facultad de CienciasFısicas y MatematicasUniversidad de Chile

Martinez, Servet

MA3401 - Probabilidades

Transcriptor:Alan Beltran Flores1

Otono 2013

1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Roman, que pasaron sus apuntes de clasesa las que falte (justificadamente, por supuesto)

Page 2: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

2

Page 3: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Indice general

Clase 01 - 12/03/2013 1

Clase 02 - 14/03/2013 5

Clase 03 - 19/03/2013 9

Clase 04 - 21/03/2013 13

Clase 05 - 26/03/2013 17

Clase 06 - 28/03/2013 21

Clase 07 - 02/04/2013 23

Clase 08 - 04/04/2013 25

Clase 09 - 09/04/2013 27

Clase 10 - 16/04/2013 31

Clase 11 - 18/04/2013 35

Clase 12 - 23/04/2013 37

Clase 13 - 25/04/2013 41

Clase 14 - 29/04/2013 45

Clase 15 - 02/05/2013 49

Clase 16 - 07/05/2013 53

Clase 17 - 09/05/2013 57

Clase 18 - 14/05/2013 61

Clase 19 - 16/05/2013 63

3

Page 4: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

4 INDICE GENERAL

Page 5: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 01 - 12/03/2013

Axiomatica de Probabilidades

- Ω 6= ∅ conjunto de puntos llamado espacio muestral- β clase de eventos

Los elementos de β son subconjuntos de Ω, es decir, β ⊆ P(Ω), en donde P(Ω) = ω ⊆ Ωes el conjunto potencia de Ω.

En la axiomatica, β es una σ-algebra (sigma-algebra).

Definicion β es una σ-algebra si:

0. β ⊆ P(Ω)

1. ∅,Ω ⊆ β2. B ∈ β ⇒ Bc ∈ β, en donde Bc = Ω \B

3. Bn ∈ β ∀n ∈ N⇒⋃n∈N

Bn ∈ β

A la propiedad 3 se le llama “ser cerrado por complemento”, mientras a la propiedad 4 se lellama “ser cerrado por union numerable”.

Nota Bn ∈ β ∀n ∈ N lo escribiremos (Bn : n ∈ N)

Definicion Si β es σ-algebra, a la pareja (Ω, β) se le llama espacio medible.

Propiedad Toda σ-algebra β es un algebra [de conjuntos], es decir, verifica las propiedades 0,1, 2 y:

3′. A,B ∈ β ⇒ A ∪B ∈ β

Demostracion Tomemos B1 = A, B2 = B y Bn = A ∀n > 2. Se tiene entonces queBn ∈ β ∀n ∈ N. Luego,

A ∪B =⋃n∈N

Bn, que pertenece a β gracias a 3.

Observacion Notemos que la propiedad 3’ equivale a:

∀n ∈ N, B1, . . . , Bn ∈ β =⇒n⋃i=1

Bi ∈ β

1

Page 6: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

2 INDICE GENERAL

Demostracion Por induccion:Para n = 1, es evidente. Entonces, si tenemos un n, demostremos para el n+ 1:

B1, ..., Bn, Bn+1 ∈ β ⇒n⋃i=1

Bi ∈ β;Bn+1 ∈ β

Por 3’

(n⋃i=1

Bi

)∪Bn+1 ∈ β ⇒

n+1⋃i=1

Bi ∈ β

Y queda asi demostrado.

Recuerdo Recordemos las leyes de Morgan:Para finitos: (

n⋃i=1

Bi

)c=

n⋂i=1

(Bci ) |

(n⋂i=1

Bi

)c=

n⋃i=1

(Bci )

Para numerables: (⋃n∈N

Bi

)c=⋂n∈N

(Bci ) |

(⋂n∈N

Bi

)c=⋃n∈N

(Bci )

Nota⋂n∈N

Bi = ω ∈ Ω : ω ∈ Bn, ∀n ∈ N

Propiedad Si β es σ-algebra, entonces:

a) B1, ..., Bn ∈ β ⇒n⋂i=1

∈ β

b) (Bn : n ∈ N) ⊆ β ⇒⋂n∈N∈ β

Demostracion

a) B1, ..., Bn ∈ β ⇒(2) Bc1, ..., Bcn ∈ β ⇒(3′)

n⋃i=1

Bci ∈ β

(n⋃i=1

Bci

)c=

n⋂i=1

Bi ∈ β

b) Es analoga a la anterior.

Propiedad Si β es σ-algebra, entonces verifica que:

A,B ∈ β ⇒ A \B ∈ β

A,B ∈ β ⇒ A4B ∈ β

Page 7: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 3

Demostracion Ambas pueden ser escritas en forma de uniones e intersecciones

A \B = A ∩Bc

A4B = (A \B) ∪ (B \A) = (A ∩Bc) ∪ (B ∩Ac)

Todos los conjuntos resultados de uniones e intersecciones, uniones numerables, diferencias ydiferencias simetricas estaran en β.

Propiedad Sea β σ-algebra. Sea (Bn : n ∈ N) ⊆ β. Entonces:

lım supn→∞

Bn ∈ β

lım infn→∞

Bn ∈ β

En donde:

lım supn→∞

Bn =⋂n∈N

⋃k≥n

Bk

lım infn→∞

Bn =⋃n∈N

⋂k≥n

Bk

Nota

lım supn→∞

Bn = ω ∈ Ω : ∀n ∈ N ∃k ≥ n tal que ω ∈ Bk

= ω ∈ Ω : ∃kn →∞ tal que ω ∈ Bkn= ω ∈ Ω : |k ∈ N : ω ∈ Bn| <∞

lım infn→∞

Bn = ω ∈ Ω : ∃n ∈ N ∀k ≥ n tal que ω ∈ Bk

= ω ∈ Ω : |k ∈ N : ω /∈ Bn| <∞

|A| = Cardinal de A

Observaciones Por la ley de Morgan:(lım supn→∞

Bn

)c= lım inf

n→∞Bcn(

lım infn→∞

Bn

)c= lım sup

n→∞Bcn

Propiedad Sea Ω 6= ∅ un espacio. Sean β, β′ σ-algebras. Entonces β ∩ β′ es σ-algebra. Luego,para i = 1, ..., n:

n⋂i=1

Bi es σ-algebra.

Page 8: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

4 INDICE GENERAL

Demostracion

0. β ∩ β′ ⊆ P(Ω)

1. ∅,Ω ∈ β; ∅,Ω ∈ β′ ⇒ ∅,Ω ∈ β ∩ β′

2. B ∈ β ∩ β′ ⇒ Bc ∈ β ∩ β′

3. (Bn : n ∈ N) ⊆ β ∩ β′ ⇒⋃n∈N

Bn ∈ β ∩ β′

2 y 3 son porque β y β’ son σ-algebras.

Propiedad Sean Ω, Λ 6= ∅ espacios. Si βλ es σ-algebra en Ω ∀λ ∈ Λ, entonces:⋂λ∈Λ

βλ es σ-algebra.

Nota ⋂λ∈Λ

βλ = B ∈ P(Ω) : B ∈ βλ ∀λ ∈ Λ

Demostracion

0. βλ ⊆ P(Ω) ∀λ ∈ Λ⇒⋂λ∈Λ

βλ ⊆ P(Ω)

1. ∅,Ω ∈ βλ ∀λ ∈ Λ⇒ ∅,Ω ∈⋂λ∈Λ

βλ

2. B ∈⋂λ∈Λ

βλ ⇔ B ∈ βλ ∀λ ∈ Λ⇒ Bc ∈ βλ ∀λ ∈ Λ⇔ Bc ∈⋂λ∈Λ

βλ

3. (Bn : n ∈ N) ⊆⋂λ∈Λ

βλ ⇔ (Bn : n ∈ N) ⊆ βλ ∀λ ∈ Λ

⇒⋃n∈N

Bn ∈ βλ ∀λ ∈ Λ⇔⋃n∈N

Bn ∈⋂λ∈Λ

βλ

Page 9: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 02 - 14/03/2013

Sea Ω 6= ∅. Notemos que siempre podemos definir en el las σ-algebras:

a) N = ∅,Ω σ-algebra trivial

b) P(Ω) σ-algebra discreta

Demostracion: Ambos cumplen trivialmente con 0, 1 y 2. Veamos 3:

a) Sea (Bn : n ∈ N). Si Bn = ∅ ∀n ∈ N⇒⋃n∈N

Bn = ∅ ∈ N

Si ∃n ∈ N tal que Bn = Ω⇒⋃n∈N

Bn = Ω ∈ N

Como esos son los unicos casos Posibles, entonces es verdad

b) (Bn : n ∈ N) ⊆ P(Ω)⇒⋃n∈N

Bn ∈ P(Ω)

Nota N ⊂ P(Ω), excepto cuando Ω = α, en cuyo caso N = P(Ω) = ∅, α

Proposicion Sea Ω 6= ∅ y sea Γ ⊆ P(Ω). Entonces, ∃! σ-algebra que notaremos σ(Γ) y quellamaremos σ-algebra generada por Γ, que verifica las siguientes propiedades:

a) σ(Γ) es σ-algebra.

b) Γ ⊆ σ(Γ)

c) Si Γ ⊆ β y β es σ-algebra, entonces σ(Γ) ⊆ β

Nota σ(Γ) es la σ-algebra mas pequena que contiene a Γ.

Demostracion Definamos Λ = β : β es σ-algebra y Γ ⊆ β. Se tiene P(Ω) ⊆ Λ, luegoΛ 6= ∅. Por propiedad anterior, ⋂

β∈Λ

β es σ-algebra

Como Γ ⊆ β ∀β ∈ Λ⇒ Γ ⊆⋂β∈Λ

β

Por ultimo, si Γ ⊆ β′ y β′ es σ-algebra, entonces β′ ∈ Λ. Luego⋂β∈Λ

β ⊆ β′

5

Page 10: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

6 INDICE GENERAL

Hemos probado que σ(Γ) =⋂β∈Λ

β verifica (a, b, c). Ademas, es la unica σ-algebra que lo hace,

pues si β′ tambien lo verificase, deduciriamos de (c) que β′ ⊆ σ(Γ) y que σ(Γ) ⊆ β′, concluyendoque β′ = σ(Γ).

Nota Si Ω es numerable (finito o de cardinalidad de N), entonces siempre consideraremosen Ω la σ-algebra discreta P(Ω).

Observemos que en este caso Ω numerable se tiene

P(Ω) = σ(Γ), con Γ = ω : ω ∈ Ω

En efecto, si B ∈ P(Ω), entonces:

B =⋃ω∈Bw, union numerable de conjuntos en Γ

Luego B ∈ σ(Γ), de donde P(Ω) ⊆ σ(Γ)

Nota Sea Ω 6= ∅, Γ = ω : ω ∈ Ω la familia de singletons. Entonces:

σ(Γ) = B ⊆ Ω : B es numerable o Bc es numerable DEMOSTRARLO

Definicion σ-algebra de Borel:En Ω = R, la σ-algebra de Borel se define por β(R) = σ(Γ), con Γ = (−∞, a] : a ∈ R

Propiedad ∀a, b ∈ R, con a ≤ b se tiene que:

(−∞, a] [a, b](−∞, a) (a, b][a,∞) [a, b)(a,∞) (a, b)

a

cualquier union o interseccion

numerable, complemento odiferencia de estos conjuntos

∈ β(R)

Demostracion Caso por caso

1) (−∞, a) =⋃n∈N

(−∞, a− 1

n

)Como

(−∞, a− 1

n

)∈ Γ, ∀n ∈ N, deducimos

⋃n∈N

(−∞, a− 1

n

)∈ σ(Γ) = β(R)

2) [a,∞) = (−∞, a)c. Como (−∞, a) ∈ β(R), se deduce que (−∞, a)c ∈ β(R)3) [a, b) = (−∞, b) ∩ [a,∞). Como ambos estan en β(R), entonces [a, b) ∈ β(R)4) a = [a, a] ∈ β(R)

Nota B ∈ β(R) se llamara BorelianoAdemas, β(R) ⊂ P(R) (∃A ⊆ R tal que A /∈ β(R))

Definicion Analogamente, se tiene en Ω = Rn la σ-algebra de Borel, definida β(Rn) = σ(Γ),

con σ(Γ) = n∏i=1

(−∞, ai) : ai, . . . , an ∈ R

Page 11: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 7

Nota A los B ⊆ Rn tal que B ∈ β(Rn) se les llama Borelianos.

Nota

n∏i=1

|ai, bi| ∩Rn ∈ β(Rn), ∀ai, bi tal que −∞ ≤ ai ≤ bi ≤ ∞.

Definicion Diremos que (Bn : n ∈ N) es familia disjunta si Bi ∩Bj = ∅ ∀i 6= j, con i, j ∈ N

Definicion Sea (Ω, β) espacio medible. P es una medida de probabilidad en (Ω, β) si verifica:

a) P es funcion P : β → [0, 1]B → P(B)

b) P(Ω) = 1

c) ∀(Bn : n ∈ N) ⊆ β familia disjunta en β se tiene que P

(·⋃n∈N

Bn

)=∑n∈N

P(Bn)

A esta ultima propiedad se le llama σ-aditividad.

Propiedad Sea P medida de probabilidad. Entonces P(∅) = 0.

Demostracion Tomemos Bn = ∅ ∀n ∈ N. Entonces (Bn : n ∈ N) ⊆ β son disjuntos.

Luego, por σ-aditividad P

(·⋃n∈N

Bn

)=∑n∈N

P(Bn).

Como ·⋃n∈N

Bn = ∅, entonces P(∅) =∑n∈N

P(∅).

Luego, P(∅) =∞ o P(∅) = 0. Y como P ∈ [0, 1], entonces P(∅) = 0.

Page 12: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

8 INDICE GENERAL

Page 13: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 03 - 19/03/2013

Una medida µ en (Ω, β) verifica:

(0) µ : β → R+ ∪ ∞(1) µ(∅) = 0

(2) µ es σ-aditiva

Se dira medida finita si µ(B) 6=∞, ∀B ∈ βSe tiene que si µ es medida, entonces es una medida de probabilidad si y solo si µ(Ω) = 1.

Por otra parte, si µ es medida finita y µ(Ω) 6= 0, entonces P(B) =µ(B)

µ(Ω), B ∈ β es medida

de probabilidad.

Definicion ∃! medida λ en (R, β(R)) llamada medida de Lebesgue que verifica:

λ((a, b]) = b− a, ∀a ≤ b en R

Se tiene λ(R) =∞, λ(a) = 0, ∀a ∈ R

Definicion ∃! medida λn en (Rn, β(Rn)) llamada medida de Lebesgue que verifica:

λn(

n∏i=1

(ai, bi)) =

n∏i=1

(bi − ai)

Se tiene λn(Rn) =∞, λn(x) = 0, ∀x ∈ Rn

Propiedades Sea (Ω, β,P)) espacio de probabilidad. P es una medidad de probabilidad en(Ω, β). Entonces:

a) P es aditiva, es decir, si B1, . . . , Bn ∈ β son disjuntos, se tiene

P

(·n⋃i=1

Bi

)=

n∑i=1

P(Bi)

b) Si A,B ∈ β, A ⊆ B, entonces P(B \A) = P(B)− P(A)

c) Si A,B ∈ β, A ⊆ B, entonces P(A) ≤ P(B)

d) ∀B ∈ β, P(Bc) = 1− P(B)

e) P(A ∪B) = P(A) + P(B)− P(A ∩B)

9

Page 14: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

10 INDICE GENERAL

Nota Las propiedades a), b), c) y e) son comunes a todas las medidas.

Demostracion

a) Tomemos Bi = ∅ ∀i > n. Luego, (Bi : i ∈ N) ⊆ β son disjuntos, y por σ-aditividad:

P

(·n⋃i=1

Bi

)= P

(·⋃i∈N

Bi

)=∑i∈N

P(Bi)

P(∅)=0︷︸︸︷=

n∑i=1

P(Bi)

b) A ⊆ B ⇒ A∧B \A = B ∩Ac, son conjuntos disjuntos y verifican B = A ·∪ (B \A). Luegopor a) deducimos P(B) = P(A) + P(B \A)

c) Como P(B \A) ≥ 0, por b) deducimos P(A) ≤ P(B)d) Resulta de tomar B ⊆ Ω, luego por b), y ya que Bc = Ω \B:

P(Ω \B) = P(Ω)− P(B) = 1− P(B)

e) A ∪B = A ∩B ·∪B \A ·∪A \B = A ∩B ·∪ (B \A ∩B) ·∪ (A \A ∩B). Luego:

P(A ∪B)a)= P(A ∩B) + P(B \A ∩B) + P(A \A ∩B)

b)= P(A ∩B) + P(B)− P(A ∩B) + P(A)− P(A ∩B)

= P(A) + P(B)− P(A ∩B)

Formula de Inclusion-Exclusion Sea B1, . . . , Bn ∈ β. Entonces:

P

(n⋃i=1

Bi

)=∑

J⊆1,...,nJ 6=∅

(−1)|J|+1 P

(⋂i∈J

Bi

)=

n∑k=1

(−1)k+1

∑1≤i1<...<ik≤n

P

(k⋂i=1

Bi

)Primero suma todos las probabilidades de conjuntos, luego le resta las intersecciones dobles,

despues le suma las intersecciones triples, le resta las cuadruples y ası.Para el caso n = 2 obtenemos e). Para el caso n = 3 obtenemos:

P(A ∪B ∪ C) = P(A) + P(B) + P(C)− P(A ∩B)− P(A ∩ C)− P(B ∩ C) + P(A ∩B ∩ C)

Demostracion Por induccion, en auxiliar.

Propiedades Sea (Bn : n ∈ N) ⊆ β. Entonces:

(a) Si Bn ⊆ Bn+1 ∀n ∈ N (Se escribeBn y se diceBn creciente), se tiene

P

(⋃n∈N

Bn

)= lımn→∞

P(Bn) (Continua Monotona Creciente)

(b) Si Bn+1 ⊆ Bn ∀n ∈ N (Se escribeBn y se diceBn decreciente), se tiene

P

(⋂n∈N

Bn

)= lımn→∞

P(Bn) (Continua Monotona Decreciente)

(c) P es sub-σ-aditiva. Es decir, P

(⋃n∈N

Bn

)≤∑n∈N

P(Bn)

Page 15: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 11

Demostracion

(a) Definamos (An : n ∈ N) por A1 = B1;An+1 = Bn+1 \Bn, ∀n ∈ N. Se tiene

(An : n ∈ N) ⊆ β, ademas los An son disjuntos [probarlo] y se verifica que:

(∗) An ⊆ Bn ∀n ∈ N⇒ ·⋃n∈N

An ⊆⋃n∈N

Bn

(∗∗) Bn = ·n⋃i=1

Ai ∀n ∈ N⇒⋃n∈N

Bn ⊆ ·⋃n∈N

An

(∗) + (∗∗) =⇒ ·⋃n∈N

An =⋃n∈N

Bn. Luego:

P

(⋃n∈N

Bn

)= P

(·⋃n∈N

An

)=∑n∈N

P(An) = lımn→∞

(n∑i=1

P(Ai)

)

= lımn→∞

P

(·n⋃i=1

Ai

)= lımn→∞

P(Bn)

(b) Se deduce de (a) y Morgan. En efecto, Bn⇒ Bcn . Luego, por (a):

P

(⋃n∈N

Bcn

)= lımn→∞

(P(Bcn)) = lımn→∞

(1− P(Bn)). Ademas:

P

((⋂n∈N

Bn

)c)= 1− P

(⋂n∈N

Bn

), Luego

1− P

(⋂n∈N

Bn

)=︸︷︷︸

Morgan

lımn→∞

(1− P(Bn))⇒ P

(⋂n∈N

Bn

)= lımn→∞

(P(Bn))

(c) Definamos (An : n ∈ N) por A1 = B1;An+1 = Bn+1 \

(n⋃i=1

Bi

)∀n ∈ N

Se tiene (An : n ∈ N) ⊆ β, son disjuntos y verifican:

An ⊆ Bn ∧Bn = ·n⋃i=1

Ai, ∀n ∈ N. Luego, ·⋃n∈N

An =⋃n∈N

Bn y deducimos

P

(⋃n∈N

Bn

)= P

(·⋃n∈N

An

)=∑n∈N

P(An)

Por * y porque P es creciente︷︸︸︷≤∑n∈N

P(Bn)

Nota (c) implica la sub-aditividad:∀B1, . . . , Bn ∈ β, y tomando Bi = ∅, ∀i > n, tenemos

P

(n⋃i=1

)≤

n∑i=1

P(Bn)

Page 16: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

12 INDICE GENERAL

Corolario Sea (Bn : n ∈ N) ⊆ β

(a) Si P(Bn) = 0 ∀n ∈ N, entonces P

(⋃n∈N

Bn

)= 0

(b) Si P(Bn) = 1 ∀n ∈ N, entonces P

(⋂n∈N

Bn

)= 1

Demostracion Se demuestran:(a) por sub-σ-aditividad.(b) por (a) y Morgan.

Page 17: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 04 - 21/03/2013

Definicion Si lım infn→∞

Bn = lım supn→∞

Bn, se dice que ∃ lımn→∞

Bn = lım supn→∞

Bn

Si Bn, se tiene que lımn→∞

Bn =⋃n∈N

Bn

Si Bn, se tiene que lımn→∞

Bn =⋂n∈N

Bn

Propiedad Las ultimas propiedades (a) y (b), se pueden enunciar como:

Sea (Bn : n ∈ N) ⊆ β. Si Bn o Bn, entonces:

P(

lımn→∞

Bn

)= lımn→∞

P(Bn)

Definicion y Propiedad Sea (Ω, β) un espacio medible. Sea Ω0 ∈ β, Ω0 6= ∅ (en particularΩ0 ⊆ Ω). Se tiene:

β |Ω0= B ∈ β : B ∈ Ω0(∗)= B ∩ Ω0 : B ∈ β

(**)β |Ω0 es σ-algebra (en Ω0) y se llama σ-algebra inducida (o restringida) en Ω0. La pareja(Ω0, β |Ω0) es espacio medible. Ademas, β |Ω0⊆ β.

Demostracion (*) es trivial

(**) (1) ∅,Ω0 ∈ β |Ω0evidentemente.

(2) B ∈ β |Ω0⇒ Ω0 \B = Ω0 ∩Bc ∈ nβ |Ω0

(3) (Bn : n ∈ N) ⊆ β |Ω0⇒⋃n∈N

Bn ∈ β |Ω0

Probabilidad Condicional

Sea (Ω, β,P) un espacio de probabilidades, que vamos a usar de aquı en adelante.

Definicion Sean A,B ∈ β, con P(B) > 0. Definimos:

P(A|B) =P(A ∩B)

P(B)y lo llamamos probabilidad de A condicional a B.

13

Page 18: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

14 INDICE GENERAL

Propiedades Obvias Sea P(B) > 0. Se tiene:

(a) P(A|B) = P(A ∩B|B)

(b) P(A ∩B) = P(A|B) · P(B)

(c) Si P(A) > 0⇒ P(A|B) · P(B) = P(B|A) · P(A)⇒ P(A|B) = P(B|A) · P(B)

P(A)

Propiedad Sea P(B) > 0. Entonces P( · |B) : β |B → [0, 1]A → P(A|B)

es una medida de probabilidad

en (B, β |B), es decir, (B, β |B ,P( · |B)) es espacio de probabilidad.

Demostracion

(a) P(∅|B) =P(∅ ∩B)

P(B)= 0

(b) P(B|B) =P(B ∩B)

P(B)= 1

(c) Nos basta demostrar que ∀(Bn : n ∈ N) ⊆ β se cumple P

( ⋃n∈N

An

∣∣∣∣∣B)

=∑n∈N

P(An|B)

(pues β |B⊆ β). En efecto:

P

( ⋃n∈N

An

∣∣∣∣∣B)

=1

P(B)· P

(⋃n∈N

An ∩B

)=

1

P(B)·∑n∈N

P(An ∩B) =∑n∈N

P(An|B)

Propiedades Sea P(B) > 0:

(a) P(B|B) = 1(b) P(∅|B) = 0(c) P(A4B) = 0⇒ P(A|B) = 1(d) P(A4Bc) = 1⇒ P(A|B) = 0(e) P(Ω|B) = 1(f) P(A) = 1⇒ P(A|B) = 1(g) P(A) = 0⇒ P(A|B) = 0(h) P(B) = 1⇒ P(A|B) = P(A), ∀A ∈ β

Demostracion PROPUESTOS. Puede ser util, para (c), (d), (f) y (g), probar:

Sea (Ω, β,P). Entonces, ∀A ∈ β, se tiene: ∀C ∈ β, P(A4C) = 0⇒ P(C) = P(A)

Formula de Bayes

Sea I un conjunto numerable (finito o no). Sea (Ai : i ∈ I) ⊆ β particion medible de Ω, esdecir:

(0) (Ai : i ∈ I) ⊆ β(p1) (Ai : i ∈ I) disjuntos

(p2) Ω = ·⋃i∈I

Ai

Page 19: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 15

Luego, intersectando, ∀B ∈ β : B = ·⋃i∈I

(B∩Ai), de donde P(B) =∑i∈IP(B∩Ai). Si asumimos

P(Ai) > 0 ∀i ∈ I, tenemos que P(B) =∑i∈IP(B|Ai) · P(Ai). Si P(B) > 0, verificamos, ∀j ∈ I:

P(Aj |B) =P(B|Aj) · P(Aj)∑

i∈IP(B|Ai) · P(Ai)

Conocida como la formula de Bayes

Nota Lo anterior tambien es valido si (Ai : i ∈ I) es una P-particion medible, es decir:(0) (Ai : i ∈ I) ⊆ β(p′1) P(Ai ∩Aj) = 0, ∀i 6= j

(p′2) P

(Ω \

⋃i∈I

Ai

)= 0

Proposicion ∀B1, . . . , Bn ⊆ β, con P(Bi) > 0 ∀i = 1, . . . , n, se tiene que:

P

(n⋂i=1

Bi

)=

n∏i=1

P

Bi∣∣∣∣∣∣i−1⋂j=1

Bj

= P(Bn|Bn−1 ∩ . . . ∩B1) · . . . · P(B2|B1) · P(B1)

Demostracion

P(B1 ∩ . . . ∩Bn) = P(Bn|B1 ∩ . . . ∩Bn−1) · P(Bn−1 ∩ . . . ∩B1)

= P(Bn|B1 ∩ . . . ∩Bn−1) · P(Bn−1|B1 ∩ . . . ∩Bn−2) · P(Bn−2 ∩ . . . ∩B1)

=...

= P(Bn|B1 ∩ . . . ∩Bn−1) · . . . · P(B2|B1) · P(B1)

Nota En la primera igualdad, cuando i = 1,

i−1⋂j=1

Bj = Ω, por lo que P

B1

∣∣∣∣∣∣0⋂j=1

Bj

=

P(B1|Ω) = P(B1)

Page 20: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

16 INDICE GENERAL

Page 21: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 05 - 26/03/2013

Independencia

Definicion A,B ∈ β se dicen (P-)independientes (notado ⊥⊥)si P(A ∩B) = P(A) · P(B)

Propiedades

(a) P(A) = 0 o 1⇒ A es independiente en todo B ∈ β(b) Si P(A),P(B) > 0, entonces A⊥⊥B ⇔ P(A|B) = P(A)⇔ P(B|A) = P(B)(c) Si P(A),P(B) ∈ (0, 1), entonces, A ∩B = ∅ ⇒ A⊥⊥B(d) A⊥⊥A⇔ P(A) = 0 o 1

Demostracion

(a) Si P(A) = 0⇒ P(A ∩B) = 0⇒ A⊥⊥BSi P(A) = 1⇒ P(B) = P(B ∩A) + P(B ∩Ac) = P(B ∩A)⇒ A⊥⊥B

(b) Por definicion(c) P(A ∩B) = 0 6= P(A) · P(B)(d) P(A) = P(A ∩A) = P(A)2 ⇒ P(A) = 0 ∨ P(A) = 1

Proposicion A⊥⊥B ⇒ A⊥⊥BcAc⊥⊥BcAc⊥⊥Bc

Demostracion Basta probar A⊥⊥B ⇒ A⊥⊥Bc. En efecto:

P(A ∩Bc) = P(A \A ∩B) = P(A)− P(A ∩B) = P(A)− P(A) · P(B)= P(A)(1− P(B)) = P(A) · P(Bc)

Definicion Sea n ≥ 2. Sean B1, . . . , Bn ∈ β. B1, . . . , Bn se dicen independientes si:

P

(n⋂i=1

Ai

)=

n∏i=1

P(Ai), ∀Ai = Bi o Ai = Bci , i = 1, . . . , n

Proposicion Sean B1, . . . , Bn ∈ β. Se tiene:

(a) B1, . . . , Bn son independientes sı y solo sı ∀J ⊆ 1, . . . , n P

(⋂i∈J

Bi

)=∏i∈JP(Bi)

(b) Si B1, . . . , Bn son ⊥⊥, entonces Bi1 , . . . , B1k son independientes, ∀ 1 ≤ i1 < . . . < ik ≤ n

17

Page 22: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

18 INDICE GENERAL

Demostracion ...

Definicion (Bn : n ∈ N) ⊆ β es una familia de eventos independientes si ∀J finito, J ⊆ Nse tiene (Bi : i ∈ J) independiente. Se cumple (Bn : n ∈ N) ⊆ β es familia independiente si∀n ∈ N, B1, . . . , Bn independiente.

Observacion Sea (Ω, β,P) espacio de probabilidad. Sean a1, a2 ⊆ β σ-algebras incluidas enβ (se llaman sub-σ-algebras). Ellas se dicen independientes sı y solo sı ∀A1 ∈ a1, ∀A2 ∈ a2, setiene P(A1 ∩A2) = P(A1) · P(A2)

Se tiene que A,B ∈ β son independientes sı y solo sı σ(A) y σ(B) son independientes, dondeσ(A) y σ(B) son las σ-algebras generadas por A y B respectivamente. En efecto es cierto, yaque σ(A) = ∅, A,Ac,Ω y σ(B) = ∅, B,Bc,Ω.

Caso Discreto Combinatorio

Si Ω es numerable (finito o infinito), lo dotamos de la σ-lgebra β = P(Ω). En este caso, una me-dida de probabilidad en (Ω, β) esta determinada por una funcion, llamada densidad de probabili-

dad discreta p : Ω → R+

ω → p(ω)que verifica:

(i) p(ω) ≥ 0 ∀ω ∈ Ω

(ii)∑ω∈Ω

p(ω) = 1

Nota En particular p(ω) ∈ [0, 1] ∀ω ∈ Ω

En efecto, si P es una medida de probabilidad en (Ω, β), entonces p(ω) = P(ω), ∀ω ∈ Ω

verifica (i) y (ii), ya que

1 = P(Ω) = P

(·⋃ω∈Ω

ω

)=∑ω∈Ω

P(ω)

Recıprocamente, si p verifica (i) y (ii) entonces P : β → [0, 1] definida por

P(B) =∑ω∈B

p(ω), ∀B ∈ β = P(Ω)

tambien lo cumple. Observemos que P(ω) = p(ω). Ademas, P ası definido es una funcion de

β → [0, 1], pues 0 ≤ P(B) ≤∑ω∈Ω

p(ω) = 1. Por otra parte, P(Ω) = 1, y ademas si (Bn : n ∈ N) ⊆

P(Ω) disjuntos se verifica que

P

(·⋃n∈N

Bn

)=∑

ω∈ ·⋃n∈NBn

p(ω) =∑n∈N

( ∑ω∈Bn

p(ω)

)=∑n∈N

P(Bn)

por lo que la σ-aditividad se cumple.

Page 23: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 19

Caso Ω finitoPor lo dicho, una medida de probabilidad en (Ω, β) esta dada por p : Ω→ R+.La medida de probabilidad llamada equiprobable en Ω es tal que

p(ω) =1

|Ω|, ∀ω ∈ Ω

Tambien se le llama uniforme (en Ω). Es la unica medida de probabilidad en (Ω, β) en que acada punto de Ω se le da el mismo peso.

En este caso se tiene la igualdad P(B) =∑ω∈B

p(ω) =|B||Ω|

, es decir, un caso equiprobable.

∀B ∈ Ω : P(B) =|B||Ω|

:Casos favorables

Casos posibles

Page 24: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

20 INDICE GENERAL

Page 25: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 06 - 28/03/2013

Combinatoria

Recordemos algunas igualdades de cardinalidad. Notaremos por In un conjunto de n ele-mentos, |In| = n. Para todo efecto de cardinalidad podemos suponer In = 1, . . . , n, (I0 = ∅,|I0| = 0)

Se tiene: ∣∣∣∣∣k∏l=1

Inl

∣∣∣∣∣ =

k∏l=1

|Inl | =k∏l=1

nl

Luego |Ikn| = nk. Esta igualdad se puede escribir como |F(Ik, In)| = nk, donde F(Ik, In) =f : Ik → In. En efecto F(Ik, In) → Ikn

f → (f(i) : i ∈ Ik)es una biyeccion.

Sea I(Ik, In) = f : Ik → In, f inyectiva. Se tiene I(Ik, In) 6= ∅ solo en el caso k ≤ n.

Supongamos k ≤ n. Se tiene

|I(Ik, In)| = n!

(n− k)!= n(n− 1) · · · (n− k + 1)

I(Ik, In) esta en biyeccion con (x1, . . . , xk) ∈ Ikn : xi 6= xj ,∀i 6= j

Demostracion I(Ik, In) →k−1∏l=0

In−l

f → (f(1), . . . , f(k))

Si f es inyectiva, f(1) ∈ In, f(2) ∈ In \ f1, . . . , f(k) ∈ In \ f(1), . . . , f(k − 1). Luego

|I(Ik, In)| =

∣∣∣∣∣k−1∏l=0

In−l

∣∣∣∣∣ =

k−1∏l=0

(n− l) = n(n− 1) · · · (n− k + 1)

En particular, para k = n, I(Ik, In) = Per(In), conjunto de biyecciones de In → In cuyos

elementos particion se llaman permutaciones de In. Se cumple que |Per(In)| = n!

Sea k ≤ n. Consideremos Pk(n) = B : B ⊆ In, |B| = k, subconjuntos de In con k elementos.Se tiene:

|Pk(n)| =(n

k

)=

n!

(n− k)! k!, ∀k ≤ n

21

Page 26: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

22 INDICE GENERAL

Demostracion En I(Ik, In) definamos la relacion de equivalencia:

f ≡ g ⇔ f(i) : i ∈ Ik = g(i) : i ∈ Ik⇔ f(Ik) = g(Ik) : los conjuntos imagen son los mismos

Sea I(Ik, In)/ ≡ el conjunto de clases de equivalencia. Se tiene

i : Pk(n) → I(Ik, In)/ ≡B → i(B) = f ∈ I(Ik, In) : f(Ik) = B

i esta bien definido, pues |B| = k = |f(Ik)| ∀f ∈ I(Ik, In). Ademas, i es claramente biyeccion.Luego:

|Pk(n)| = |I(Ik, In)/ ≡ | = n!

(n− k)! k!

pues ∀f ∈ I(Ik, In), |Clase de equivalencia de f | = |Per(f(1), . . . , f(k))| = k!

Definicion Sea In. Sean n1, . . . , nk ≥ 0 tal que

k∑i=1

= n. Definimos

Part(n1, . . . , nk) = (B1, . . . , Bk) : conjunto de particiones de In en k conjuntos

B1, . . . , Bk tal que |Bi| = n1, ∀i = 1, . . . , k

Notemos que si k = 2 se tiene n2 = n−n1, luego Part(n1, n−n1)→ Pn1(n) es una biyeccion,

pues todo B ∈ Pn1(n) determina unicamente (B,Bc) ∈ Part(n1, n− n1).Se tiene:

|Part(n1, . . . , nk)| =(n

n1

)(n− n1

n2

)· · ·

n−k−2∑l=1

nl

nk−1

n−

k−1∑l=1

nl

nk

=

k∏i=1

n−i−1∑l=1

nl

ni

=

k∏i=1

(n−

i−1∑l=1

nl

)!

ni!

(n−

i∑l=1

nl

)!

=

n!

n1! · · ·nk!

Hipergeometrica

Hay una urna con n bolas, de las cuales n1 son rojas y n2 = n− n1 son negras. Sea 1 ≤ k1 ≤k ≤ n. Se saca “al azar” k bolas. ¿Cual es la probabilidad de que se hayan sacado exactamentek1 bolas rojas? (Con k2 = k − k1 bolas negras)

Page 27: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 07 - 02/04/2013

Revisitemos la Hipergeomeometrica.

In = J ·∪ Jc In = representa urna con n bolitasJ = conjunto de bolas rojas |J | = n1

Jc = conjunto de bolas negras |Jc| = n2 = n− n1

El experimento consiste en sacar “al azar” un conjunto de k bolitas. Nos preguntamos por laprobabilidad de que este conjunto contuviera k1 bolitas rojas y luego k2 = k− k1 bolitas negras,donde 0 ≤ k1 ≤ k ≤ n.

Tomemos:Ω = Pk(n) = ω : ω ⊆ In, |ω| = k

El conjunto “al azar”, es un conjunto ω ∈ Ω que se escoje de manera equiprobable en Ω, es

decir, P(ω) =1

|Ω|=

1

|Pk(n)|=

1(n

k

) , ∀ω ∈ Ω

Nos interesa calcular P(A), en donde:

A = ω ∈ Ω : |ω ∩ J | = k1, |ω ∩ Jc| = k − k1= ω ∈ Ω : |ω ∩ J | = k1 Ya que |ω| = k, ∀ω ∈ Ω

Con lo que P(A) =∑ω∈A

P(ω) =|A||Ω|

=|A|(n

k

)Ademas |A| : A → Pk1(n1)× P(k2)(n2)

ω → ω ∩ J × ω ∩ Jcque es claramente un biyeccion, por lo que concluimos que:

P(Ak) =

(n

k1

)(n

k2

)(n

k

) =

(n1

k1

)(n− n1

k − k2

)(n

k

)Que es tambien:

P(Ak) =

(k

k1

)(n− kn− k1

)(n

n1

)En donde In = J ∪ Jc; Ω = Pk(n) = ω ⊆ In : |ω| = k; Ak = ω ∈ Ω : |ω ∩ J | = k es

cambiada a In = K ∪Kc; Ω = Pn1(n) = ω ⊆ In : |ω| = n1; Ak1 = ω ∈ Ω : |ω ∩K| = k

23

Page 28: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

24 INDICE GENERAL

Generalizacion de la Hipergeometrica

Sea una urna In con n bolas, In esta particionado en bolas de r colores distintos.

In = ·r⋃l=1

Jl, Jl =bolas de color l. Notamos que Jl = nl, luego n =

r∑l=1

nl

Se saca “al azar” un conjunto de k bolas. Cual es la probabilidad de que obtenga k1 bolas de

J1, ..., kr bolas de Jr? Notar que k =

r∑l=1

kl

Ω = Pk(n) = ω : ω ⊆ In, |ω| = k; P(ω) =1

|Ω|=

1(n

k

)Akl = ω ∈ Ω : |ω ∩ Jl| = kl, ∀l = 1, . . . , rSe tiene que Ak1...kr → Pk1(J1)× · · · × Pkr (Jr)

ω → (ω ∩ J1, . . . , ω ∩ Jr)es biyeccion, luego:

|Ak1,...,kr | =(n1

k1

)· · ·(nrkr

)=

r∏l=1

(nlkl

)

Luego, la probabilidad buscada es: P(Ak1,...,kr ) =

r∏l=1

(nlkl

)(n

k

) Notemos que si n = 2 es igual a

lo que habiamos hecho antes.

Observemos que lo hecho anteriormente, es decir, sacar el conjunto ω ∈ Ω = Pk(n) demanera equiprobable, es enteramente equivalente a: sacar una bola “al azar” de In, llamada v1,sacar una segunda bola “al azar” de In \ v1 y ası hasta sacar una k-esima vola “al azar” deIn \ v1, . . . , vk−1. El conjunto ω = v1, . . . , vk ası escogido, es un conjunto de k elementoselegidos “al azar”, es decir, de manera equiprobable en Pk(n). Este experimento es sacar lasbolas de In sin repeticion y sin reposicion.

En el caso con reposicion: Se sacan k bolas de manera independiente desde In, cada una deellas escogida de manera equiprobable.

Sea x1, . . . , xk las bolas ası escogidas de In. Es decir, xp ∈ In. En este caso |x1, . . . , xk| ≤ k,

pues puede haber repeticion. Ası, se tiene Ω = Ikn y P(x1, . . . , xk) =1

|In|k=

1

nk

Page 29: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 08 - 04/04/2013

Variables Aleatorias

Sea (Ω, β,P) espacio de probabilidad que consideraremos fijo.

Definicion La funcion X : Ω → R se dice variable aleatoria si ∀C ∈ β(R), X−1(C) ∈ β, esdecir, ω ∈ Ω : X(ω) ∈ C ∈ β, ∀C ∈ β(R)

Es facil mostrar que X : Ω→ R es variable aleatoria si y solo si ∀a ∈ R, X−1((−∞, a]) ∈ β,es decir, si y solo si ∀a ∈ R, ω ∈ Ω : X(ω) ≤ a ∈ β.

Propiedades

(i) La funcion constante Xa : Ω→ R definida por Xa(ω) = a, ∀ω ∈ Ω es v. a.

(ii) Sea B ∈ β, la funcion indicadora 1B : Ω → R

ω → 1B(ω) =

1 si ω ∈ B0 si ω /∈ B

es v. a.

Mas aun, para B ⊆ Ω se tiene que 1B es una v. a. si y solo si B ⊆ β(iii) Si X es v. a. y α ∈ R, entonces αX es v. a.

(iv) Si X,Y son v. a., entonces X + Y es v.a.

(v) Si X,Y son v. a., entonces X · Y es v. a.

(vi) Si X,Y son v. a., Y 6= 0, entoncesX

Yes v. a.

(vii) Si X,Y son v. a., entonces max(X,Y ) y mın(X,Y ) son v. a.

(viii) Si (Xn : n ∈ N) es familia de v. a. tal que ∃ lımn→∞

Xn, entonces lımn→∞

Xn es v. a.

Nota Por (iii) y (iv), el conjunto de v. a. es espacio vectorial; por (iii), (iv) y (v) el conjuntode v. a. es un algebra conmutativa; por (vii) el conjunto de v. a. es un reticulado (cerrado parael maximo y el mınimo); por (i), (iii), (iv) y (v) el conjunto de v. a. es un algebra conmutativaunitaria, pues la funcion constante 1 : Ω → R

ω → 1(ω) = 1es el neutro de la multiplicacion.

Demostracion Solo la de (ii) y la de (i) por mientras:(ii) Sea B ∈ β y 1B : Ω → R

ω → 1B(ω) =

1 si ω ∈ B0 si ω /∈ B

25

Page 30: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

26 INDICE GENERAL

Para probar que 1B es v. a. debemos probar que ∀C ∈ β(R), 1−1B (C) ∈ β. Se tiene que

1−1B (C) = ω ∈ Ω : 1B(Ω) ∈ β, asi que, por casos:

Caso 1: Si 0, 1 ⊆ C por definicion 1−1B (C) = Ω ∈ β

Caso 2: Si 1 ∈ C, 0 /∈ C por definicion 1−1B (C) = B ∈ β

Caso 3: Si 0 ∈ C, 1 /∈ C por definicion 1−1B (C) = Bc ∈ β

Caso 4: Si 0, 1 /∈ C por definicion 1−1B (C) = ∅ ∈ β

Como son los unicos casos posibles, concluimos que 1−1B (C) ∈ β, ∀C ∈ β(R), luego 1B es v. a.

La segunda parte de (ii), resulta de lo hecho previamente (la parte “si”) y de (*?) tomandoC = 1 ∈ P(R), para la parte solo si.

(i) Notemos que si a = 1, X = 1Ω, luego ese caso se deduce de (ii).En general la funcion Xa = a es v. a. pues:

X−1a (C) =

Ω si a ∈ C∅ si a /∈ C

Y como Ω, ∅ ∈ β, se deduce el resultado.

Page 31: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 09 - 09/04/2013

Demostracion (Continuacion)

(iii) Sea X v. a. y α ∈ R. Digamos α 6= 0. Para C ∈ β(R) debemos mostrar que (αX)−1(C) ∈β. Se tiene (αX)−1(C) = ω ∈ Ω : αX(ω) ∈ C = ω ∈ Ω : X(ω) ∈ 1

αC = X−1(

1

αC), en donde

1

αC = y ∈ R : αy ∈ C ∈ β(R). Luego, como X es v. a., X−1(

1

αC) ∈ β.

(vi) Sean X,Y v. a. Por demostrar que Z = max(X,Y ) es v. a. Para esto, basta probar queZ−1((−∞, a]) ∈ β ∀a ∈ R

Z−1((−∞, a]) = ω ∈ Ω : Z(ω) ≤ a = ω ∈ Ω : max(X(ω), Y (ω)) ≤ a= ω ∈ Ω : X(ω) ≤ a ∧ Y (ω) ≤ a= ω ∈ Ω : X(ω) ≤ a ∩ ω ∈ Ω : Y (ω) ≤ a= X−1((−∞, a]) ∩ Y −1((−∞, a]) ∈ β

Corolario

a) Sean X,Y v. a. Entonces,X

Y

∣∣∣∣Y 6=0

es v. a.

b) Sea (Xn : n ∈ N) sucesion de v. a. Entonces ( lımn→∞

Xn)∣∣∣∃ lım

n→∞Xn

es v. a.

Observacion Y (ω) = 0⇒ X

Y= 0 por definicion.∣∣∣

∃ lımn→∞

Xnes 1 si ∃ lım

n→∞Xn y 0 en caso contrario.

Notacion Escribiremos X ∈ C = ω ∈ Ω : X(ω) ∈ C. Ası mismo, escribiremos su notacionanaloga X1 ∈ C1, . . . , Xn ∈ Cn = ω ∈ Ω : X1(ω) ∈ C1, . . . , Xn(ω) ∈ Cn

Tambien ∃ lımn→∞

Xn = ω ∈ Ω : ∃ lımn→∞

Xn

Observacion Lo que hemos hecho hasta ahora en R tambien se puede hacer en R = R ∪−∞,∞, llamado R extendido.

β(R) = σ(J), con J = [−∞, a], [a,∞], (−∞, a], [a,∞)Todas las propiedades son analogas cuando estan bien definidas:

Definidas:

−∞ · 0 = 0

∞ · 0 = 0No definidas:

(±)∞±∞(±)∞ · (±)∞

27

Page 32: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

28 INDICE GENERAL

Propiedad Sean (Xn : n ≥ 1) v. a. tal que ∀n ∈ N Xn : Ω→ R (o R). Entonces

lım infn→∞

Xn y lım infn→∞

Xn son v. a., lım inf y lım sup van de Ω a R

Nota lım supn→∞

Xn(ω)| lım infn→∞

Xn(ω) = sup.|ınf. de la acumulacion de Xn(ω) : n ∈ N.

Definicion h : R → R o R → R se dice boreliano si ∀C ∈ β(R) : h−1(C) ∈ β(R), conh−1(C) = x ∈ R : h(x) ∈ C. Se prueba que esta propiedad es equivalente a:

∀a ∈ R, h−1((−∞, a]) = x ∈ R : h(x) ≤ a ∈ β(R)

Nota Todas las funciones continuas o con un conjunto aislado numerable de discontinuida-des son funciones borelianas.

Si C ∈ β(R), la indicadora 1C es boreliana.

El conjunto de funciones borelianas tiene las propiedades ya descritas de v. a. (espaciovectorial, reticulado, algebra unitaria).

Propiedad Sea X : ω → R y h : R→ R boreliano, entonces hX : Ω→ R es v. a.

Demostracion Sea C ∈ R. Entonces (hX)−1(C) = X−1(h−1(C)) ∈ β

Definicion y Propiedad Sea X : Ω → R una v. a., entonces PX : β(R) → [0, 1]C → P(X−1(C))

es

una medida de probabilidad en (R, β(R)) que se llama probabilidad inducida por X o ley de X.

Demostracion

(0) PX esta bien definida en β(R) pues X es v. a. Luego ∀C ∈ β(R), X−1(C) ∈ β, luego

∃P(X−1(C)) ∈ [0, 1]

(1) PX(R) = P(X−1(C)) = P(Ω) = 1

(2) Sean (Cn : n ∈ N) ⊆ β(R) familia disjunta de borelianos. Entonces:

PX

(·⋃n∈N

Cn

)= P(X−1

(·⋃n∈N

Cn

)) = P

(·⋃n∈N

(X−1Cn)

)=∑n∈N

P(X−1(Cn)) =∑n∈N

PX(Cn)

Observacion Notemos que para Xi : Ω→ R v. a. ∀i = 1, . . . , n se tiene:

∀C1, . . . , Cn ∈ β(R), ω ∈ Ω : Xi(ω) ∈ Ci, ∀i = 1, . . . , n ∈ β

Xi ∈ Ci ∀i = 1, . . . , n =

n⋂i=1

Xi ∈ Ci =

n⋂i=1

X−1(Ci) ∈ β

Page 33: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 29

Definicion Las v. a. X1, . . . , Xn se dicen (P-)independientes si:

P(Xi ∈ Ci,∀i = 1, . . . , n) =

n∏i=1

P(Xi ∈ Ci), ∀C1, . . . , Cn ∈ β(R)

Esto es: P

(n⋂i=1

Xi ∈ Ci

)=

n∏i=1

P(Xi ∈ Ci)

=

n∏i=1

PXi(Ci)

Propiedad Para X v. a., σ(X) = X−1(C) : C ∈ β(R) es una σ-algebra contenida en β.Se tiene que X1, . . . , Xn son independientes si y solo si las σ-algebras σ(X1), . . . , σ(Xn) sonindependientes entre si (en (Ω, β,P))

Demostracion Ejercicio.

Page 34: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

30 INDICE GENERAL

Page 35: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 10 - 16/04/2013

Variables Aleatorias Discretas

Definicion X : Ω → R v. a. se dice discreta si la imagen X(Ω) es un conjunto que notamosI = X(Ω), tal que I ⊆ R numerable. Equivalentemente lo podriamos definir como X : Ω→ I v.a. tal que I es conjunto numerable; esto ocurre si y solo si

X−1(a) = ω ∈ Ω : X(ω) = a ∈ β, ∀a ∈ IAdmitimos la generalizacion siguiente: X : Ω → R v. a. d. si ∃I ⊆ R numerable tal que

P(X ∈ I) = 1

Definicion Sea X : Ω→ I v. a. d. Definimos su funcion de densidad discreta por:

PX(a) = P(X = a), a ∈ ILa funcion de densidad se extiende a R si PX(x) = 0, x /∈ I.

Como P(X ∈ I) = 1, se tiene que:

• PX(a) ≥ 0 •∑a∈I

PX(a) = 1

Observacion Si Xi : Ω → Ii, i = 1, . . . , n son v. a. d., siempre podemos suponer Xi : Ω → I,

∀i = 1, . . . , n, tomando I =

n⋃i=1

Ii. Analogamente si Xi : Ω→ Ii es v. a. d para i ∈ N, lo podemos

hacer si tomamos I =⋃i∈N

Ii.

Propiedad Sean Xi : Ω → I, i = 1, . . . , n v. a. d., entonces ellas son independientes si y solosi

P

(n⋂i=1

Xi = ai

)=

n∏i=1

P(Xi = ai)

En efecto, esto implica

P

(n⋂i=1

Xi ⊆ Ci

)=

n∏i=1

P(Xi ⊆ Ci) ∀Ci ∈ I, i = 1, . . . , n

Y por otra parte esto implica que se cumple ∀Ci ∈ P(R), pues

P

(n⋂i=1

Xi ⊆ Ci

)= P

(n⋂i=1

Xi ⊆ (Ci ∩ I)

)ya que

P

(n⋂i=1

Xi ⊆ (Ci ∩ Ic)

)= 0

31

Page 36: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

32 INDICE GENERAL

Clases de Variables Aleatorias Discretas

1ra Clase - Constante

Sea a0 ∈ R. Xa0 : Ω → R

ω → X(ω) = a0

es v. a. d. con I = a0. En este caso

PXa0 (a) = δa,a0 =

1 Si a = a0

0 Si a 6= a0

Se dice Xa0 v. a. constante a0.

2da Clase - Bernoulli(p)

Sea p ∈ [0, 1], X : Ω→ R es v. a. Bernoulli(p) si P(X ∈ 0, 1) = 1 tal que P(X = 0) = 1− pP(X = 1) = p

Nota Si p = 0 o p = 1, es igual a la v. a. constante X0 o X1 respectivamente.

Observacion Sean a, b ∈ R, a 6= b. Si P(Y = a) = 1− pP(Y = b) = p

, entoncesX =Y − ab− a

es Bernoulli(p).

Dicho de otro modo, si X es Bernoulli(p), entonces Y = a+ bX es tal que P(Y = a) = 1− pP(Y = b) = p

.

3ra Clase - Binomial(n, p)

Sea n ≥ 1, p ∈ [0, 1]. X : Ω→ R v. a. d. se dice Binomial(n, p) si P(X ∈ 0, . . . , n) = 1 y

PX(k) = P(X = k) =

(n

k

)pk(1− p)n−k, ∀k ∈ 0, . . . , n

Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos quen∑k=0

PX(k) =

n∑k=0

(n

k

)pk(1− p)n−k = (p+ (1− p))n = 1

Propiedades Sean X1, . . . , Xn v. a. Bernoulli(p) independientes. Entonces Y =

n∑i=0

Xi es

Binomial(n, p), es decir, P(Y = k) =

(n

k

)pk(1− p)n−k, ∀k = 0, . . . , n

Nota Binomial se puede ver como el numero k de caras que aparecen en n lanzamientos.

Demostracion

P(Y = k) = P

(n∑i=1

Xi = k

)= P(|i ∈ 1, . . . , n : Xi = 1| = k)

= P

( ⋃J⊆In|J|=k

i ∈ In : Xi = 1 = J

)=∑J⊆In|J|=k

P(Xi = 1,∀i ∈ J ;Xi = 0,∀i ∈ Jk)

=∑J⊆In|J|=k

(∏i∈JP(X = 1))(

∏i∈J0

P(X = 0)) =∑J⊆In|J|=k

p|J|(1− p)n−|J| =︸︷︷︸|J⊆In:|J|=k|=(nk)

(n

k

)pk(1− p)n−k

Page 37: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 33

Relacion entre Bernoulli(p) y la Indicadora Sea X v. a. Bernoulli(p). Entonces, X(ω) ∈0, 1 ∀ω ∈ Ω, de donde X = 1B con B = ω ∈ Ω : X(ω) = 1. En efecto,

X(ω) = 1B(ω) =

1 Si ω ∈ B ⇔ X(ω) = 1

0 Si ω /∈ B ⇔ X(ω) = 0

Se tiene P(B) = p, pues P(B) = P(X = 1) = p⇒ X Bernoulli(p) es indicadora. Notemos queX = 1B = 1X=1

Observacion Si Xi v. a. Bernoulli(p) ∀i = 1, . . . , n, ellas son independientes si y solo si(Bi : i = 1, . . . , n) son independientes, ya que Bi = 1Xi=1, ∀i = 1, . . . , n

Definicion La sucesion de v. a. Xm : Ω→ R, n ∈ N son independientes si y solo si ∀N ∈ N :X1, . . . , XN son independientes. Es decir, una familia de v. a. es independiente si y solo si todasubfamilia finita de ellas es independiente.

4ta Clase - Geometrica(p)

Sea p ∈ [0, 1]. La v. a. Z : Ω→ R se dice Geometrica(p) si

P(Z ∈ N) = 1 y PZ(k) = P(Z = k) = (1− p)k−1p, ∀k ∈ N

Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos que∑k∈N

PZ(k) =∑k≥1

(1− p)k−1p = p1

1− (1− p)= 1

Propiedad Sea (Xi : i = 1 ∈ N) una familia independiente de v. a. Bernoulli(p). Entonces,Y = ınf(i ∈ N : Xi = 1) es Geometrica(p), es decir: P(Y = k) = (1− p)k−1p, ∀k ∈ N

Demostracion

P(Y = k) = P(ınf(i ∈ N : Xi = 1) = k) = P(Xi = 0 ∀i < k;Xk = 1)

=

k−1∏i=1

P(Xi = 0)P(Xk = 1) = (1− p)k−1p

Nota P(Y = N) = 1, pues Y ∈ N ∩ ∞, pero P(Y =∞) = 0. Observemos que Y =∞⇔Xi = 0 ∀i ∈ N, por lo que P(Y =∞) = P(Xi = 0 ∀i ∈ N) =

∏i∈N

(1− p) = 0

Observacion Si Z Geometrica(p)⇒ W = Z − 1 es Geometrica(p) en 0, 1, . . .. Se tiene que

P(W ∈ 0, 1, . . .) = 1

PW (k) = P(W = k) = P(Z − 1 = k) = P(Z = k + 1) = (1− p)(k+1)−1p = (1− p)kp, ∀k ≥ 0

5ta Clase - Poisson(λ)

Sea λ > 0 ∈ R. La v. a. X se dice Poisson(λ) si

P(X ∈ Z+) = 1 y PX(k) = P(X = k) =λk

k!e−λ, ∀k ≤ 0

Page 38: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

34 INDICE GENERAL

Comprobemos Se tiene

P(X ∈ Z+) =∑k∈Z+

PX(k) =∑k∈Z+

λk

k!e−λ = eλe−λ = 1

Propiedad Sea X Poisson(λ), entonces si Yn es Binomial(n, p(n)) y np(n) →︸︷︷︸n→∞

λ

P(X = k) = lımx→∞

P(Yn = k)

Se puede interpretar como el numero de llamadas recibidas en una unidad de tiempo con unaescala λ

Page 39: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 11 - 18/04/2013

Funcion de Distribucion

Tratemos el caso general de v. a. de X → R. Vamos a describir PX (que la llamaremos leyde X) como PX(C) = P(X−1 ∈ C) = P(X ∈ C) Cuando C = (−∞,∞] se tiene PX((−∞, x]) =P(X ≤ x), x ∈ R Vemos que esto ultimo caracteriza la ley de X. A continuacion definiremos yconsideraremos generales:

Definicion F : R→ [0, 1] se dice funcion de distribucion si verifica:(0) F : R→ [0, 1] es funcion(1) F creciente, es decir, x ≤ y ⇒ F (x) ≤ F (y)(2) F continua a la derecha, es decir, F (x+) = F (x), donde F (x+) = lım

h→0+F (x+h) (3) F (0) = 1

(4) F (∞) = 0, donde F (∞) = lımx→∞

F (x)

Observaciones• Siempre existe F (x−) = lım

h→0+F (x− h) ∀x ∈ R

• x es punto de continuidad si F (x−) = F (x+) = F (x)• x es punto de discontinuidad si F (x−) 6= F (x+) (Obviamente se tiene F (x−) ≤ F (x+))

Notamos DF = x : F (x−) 6= F (x+) el conjunto de discontinuidades de F

Teoremaa) Si P es una medida de probabilidad en (R, β(R)), entonces F (x) := P((−∞, x]), x ∈ R defineuna funcion de distribucion.b) Si F : R→ [0, 1] es funcion de distribucion, entonces ∃!P medida de probabilidad en (R, β(R))tal que F (x) = P((−∞, x])

Demostracion Solo demostraremos a).Sea P medida de probabilidad en (R, β(R)). Debemos demostrar que F (x) = P((−∞, x]), x ∈

R verifica (0) a (4) para ser distribucion.(0) Como (−∞, x] ∈ β(R), P((−∞, x]) esta bien definido y como P es medida de probabilidadP((−∞, x]) ∈ [0, 1](1) x ≤ y ⇒ (−∞, x] ⊆ (−∞, y) ⇒︸︷︷︸

P creciente

P((−∞, x]) ≤ P((−∞, y])⇔ F (x) ≤ F (y)

(2) F (x+) = F (x) equivale a: ∀hn > 0, hn → 0 se tiene lımn→∞

F (X + hn) = F (x). Entonces, sea

hn que cumple con lo pedido. Se tiene (−∞, x+ hn] decreciente y (−∞, x] =⋂n∈N

(−∞, x+ hn].

Por continuidad monotona de P: P((−∞, x]) = F (x) = lımn→∞

P(−∞, x+ hn] = F (x+)

35

Page 40: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

36 INDICE GENERAL

(3) Si xn →∞, se tiene (−∞, xn) creciente y R =⋃n∈N

(−∞, xn). Por continuidad monotona

P(R) = P

(⋃n∈N

(−∞, xn)

)⇒ lım

n→∞F (x) = 1

(4) Si xn → −∞, (−∞, xn] es decreciente y ∅ =⋂n∈N

(−∞, xn], por lo que

P(∅) = lımn→∞

P((−∞, xn])⇒ lımn→∞

F (xn) = 0

Propiedades Para F (x) = P((−∞, x]), se tiene:(a) P((−∞, x)) = F (x−), ∀x ∈ R(b) P(x) = F (x)− F (x−)(c) P((a, b]) = F (b)− F (a)(d) P((a, b)) = F (b−)− F (a)(e) P([a, b]) = F (b)− F (a−)(f) P([a, b)) = F (b−)− F (a−)(g) P([a,∞)) = 1− F (a−)(h) P((a,∞)) = 1− F (a)

Demostracion Con (a) se obtienen todas las demas, asi que demostramos solo esa:(a) Consideramos hn > 0, hn → 0. Se tiene F (x−) = lım

n→∞F (x− hn) = lım

n→∞P((−∞, x− hn))

Page 41: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 12 - 23/04/2013

Nota Observemos que si F (a−) = 0, entonces P([a,∞)) = 1, luego P(C) = P(C∩[a,∞)), ∀C ∈β(R). Si la (funcion de) distribucion F tiene densidad f , entonces f(z) = 0, ∀z ∈ (−∞, a) y

luego P(C) =

∫C∩[a,∞)

f(z) dz

Observacion Sea F (funcion de) distribucion con (funcion de) densidad f . Notemos que fpuede ser alterado o redefinido en un conjunto finito o numerable de punto sin que F o P seanmodificados. Mas generalmente, f puede modificarse en un conjunto A tal que λ(A) = 0 sin queF o P sean modificados. Aqui λ : β(R)→ [0,∞) es la medida de Lebesgue.

Variables Aleatorias Absolutamente Continuas

Sea X : Ω→ R v. a. La medida de probabilidad PX : β(R)→ [0, 1] llamada ley de X carac-terizada por la funcion de distribucion de X= FX : R → [0, 1]

x → FX(x) = PX((−∞, x)) = P(X ≤ x)

Se tiene DFX = x ∈ R : FX(x) 6= FX(x−)= x ∈ R : PX(x) ≥ 0 = x ∈ R : P(X = x) ≥ 0

conjunto numerable.

Si PX(DFX ) = 1 se tiene que X es v. a. discreta, pues toma valores en el conjunto numerableDFX .

Si PX(DFX ) = 0, se tiene P(X = x) = 0 ∀x ∈ R, o equivalentemente FX(x) = FX(x−) ∀x ∈R, es decir FX es continua.

Definicion X es v. a. absolutamente continua si su funcion de distribucion FX es absoluta-

mente continua, es decir si: ∃fX(x) =d(FX(x))

dx, ∀x ∈ R llamada densidad de X y que verifica:

fX ≥ 0 y

∞∫−∞

fX(z) dz = 1. Luego, ∀C ∈ β(R) se tiene PX(C) = P(X ∈ C) =

∫C

fX(z) dz

Por lo dicho anteriormente, fX esta definida salvo en un conjunto que tenga medida deLebesgue 0.

Escribiremos X ∼ FX o X ∼ fX para decir respectivamente que X tiene distribucion FX odensidad fX .

37

Page 42: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

38 INDICE GENERAL

Familias de Variables Aleatorias Absolutamente Continuas

1ra Familia - Uniforme

Definicion Sea a < b. La variable aleatoria X se dice uniforme [a, b] si es abs. continua con den-

sidad fX(z) =1

b− a·1[a,b](z) y funcion de distribucion asociada FX(z) =

0 si z < a

z − ab− a

si z ∈ [a, b]

1 si z > b

Ademas PX(C) = PX(C ∩ [a, b]) =1

b− a= λ(C ∩ [a, b]), λ medida de Lebesgue.

Para definir la uniforme podemos utilizar 1|a,b| en vez de 1[a,b], pues fX se puede modificaren un numero finito de puntos.

Propiedad Sea U v. a. uniforme [0, 1). Entonces, la v. a. X = a+ (b− a)U es uniforme [a, b].En efecto:

FX(x) = P(X ≤ x) = P(a+ (b− a)U ≤ x) = P(U ≤ x− a

b− a

)=

0 si x < a

x− ab− a

si x ∈ [a, b]

1 si x > b

2da Familia - Exponencial (λ)

Sea λ > 0. La v. a. X se dice Exponencial (λ) si es abs. continua con densidad fX(z) =

λe−λz · 1(0,∞)(z). A λ se le llama tasa. Es claro que

∞∫−∞

fX(z) dz =

∞∫0

fX(z) dz = −e−λz∣∣∣∞0

= 1.

Su funcion de distribucion es FX(x) =

1− e−λx si x > 0

0 si x ≤ 0. Luego, FX(x) = 1 − FX(x) =

P(X > x) = e−λx, ∀x > 0

Nota Si Y ∼Geometrica(p), P(Y > n) =∑k>n

(1 − p)k−1 = (1 − p)n = e−θn, con θ =

− log(1− p) si p ∈ (0, 1)Luego, la Exponencial es la version continua de la Geometrica.

3ra Familia - Gamma (α)

Sea α > 0. Recordemos que Γ(α) =

∞∫0

e−xxa−1 dx esta en (0,∞) y se verifica Γ(n) = (n−1)!,

para n ∈ N.

La v. a. X se dice Gamma(α) si es abs. continua con densidad fX(z) =e−zzα−1

Γ(α)· 1(0,∞)(z)

Nota General Si g(x) ≥ 0 y 0 <

∞∫−∞

g(x) dx <∞, entonces f(z) =g(z)

∞∫−∞

g(x) dx

es funcion de

densidad (es decir, es la normalizacion de g)

Page 43: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 39

4ta Familia - Normal o Gaussiana

Sea µ ∈ R y σ > 0. La v. a. X se dice N(µ, σ2) si es absolutamente continua con densidad

fX(z) =1

σ√

2πe

12 ·(

z−µσ )

2

, z ∈ R. Es claro que fX ≥ 0. Probemos que

∞∫−∞

fX(z) dz = 1.

Demostracion Tomando y =z − µσ

debemos mostrar que

1√2π

∞∫−∞

e−y2

2 dy = 1, equivalente a

∞∫0

e−y2

2 dy =

√π

2

Haciendo el cambio x =y√2

queda

∞∫0

e−x2

dx =

√π

2equivalente a

∞∫0

∞∫0

e−(x2+y2) dx dy =π

4

Luego, haciendo el cambio a coordenadas polares:

∞∫0

π2∫

0

r e−r2

dθ dr =π

4

Que es facil ver que se cumple.

Propiedad Sea X ∼ N(0, 1). Entonces Y = µ+ σX ∼ N(µ, σ2).

Demostracion Sea Y = µ+ σX. Se tiene

FY (z) = P(Y ≤ y) = P(µ+ σX ≤ y) = P(X ≤ y − µσ

) = FX(y − µσ

)

Luego Y es abs. continua con densidad

fY (z) =d(FY (z))

dz(y) =

d(FX(y−µσ ))

dy=

1

σfX(

y − µσ

) =1

σ√

2πe

12 ·(

z−µσ )

2

∼ N(µ, σ2)

Page 44: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

40 INDICE GENERAL

Page 45: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 13 - 25/04/2013

Independencia

Propiedad Si X1, . . . , Xn son v. a. independientes y hi : R→ R, ∀i = 1, . . . , n son funcionesborelianas, entonces las v. a. h1(X1), . . . , hn(Xn) son independientes.

Demostracion hi(Xi)Ci = Xi ∈ h−1i (Ci), Ci ∈ β(R) por ser boreliano.

De donde

P(hi(Xi) ∈ Ci, ∀i = 1, . . . , n) = P(Xi ∈ h−1i (Ci), ∀i = 1, . . . , n)

=

n∏i=1

P(Xi ∈ h−1i (Ci)) =

n∏i=1

P(hi(Xi) ∈ Ci)

Propiedad Es facil ver que las v. a. son independientes si y solo si

P(Xi ≤ ai, ∀i = 1, . . . , n) =

n∏i=1

P(Xi ≤ ai), ∀a1, . . . , an ∈ R

=

n∏i=1

FXi(ai)

Nota En lo que sigue notaremos: FX1,...,Xn : R → [0, 1](a1, . . . , an) → FX1,...,Xn(a1, . . . , an)

que llama-

remos funcion de distribucion conjunta de las v. a. X1, . . . , Xn. Ella verifica:

(0) FX1,...,Xn es funcion

(1) FX1,...,Xn es creciente: xi ≤ yi ∀i = 1, . . . , n⇒ FX1,...,Xn(x1, . . . , xn) ≤ FX1,...,Xn(y1, . . . , yn)

(2) FX1,...,Xn es continua por la derecha: FX1,...,Xn((x1, . . . , xn)+)

= lımh1→0+

. . . lımhn→0+

FX1,...,Xn(x1 + h1, . . . , xn + hn) = FX1,...,Xn(x1, . . . , xn)

(3) FX1,...,Xn(∞, . . . ,∞) = lımx1→∞

. . . lımxn→∞

FX1,...,Xn(x1, . . . , xn) = 1

(4) FX1,...,Xn(a1, . . . ,−∞︸︷︷︸Posicion i

, . . . , an) = lımxi→−∞

FX1,...,Xn(x1, . . . , xi, . . . , xn) = 0

Como en el caso real, se tiene que FX1,...,Xn : Rn → [0, 1] caracteriza la medida de probabi-lidad PX1,...,Xn : β(Rn) → [0, 1]

D → PX1,...,Xn(D) = P((X1, . . . , Xn) ∈ D)= P(ω ∈ Ω : (X1(ω), . . . , Xn(ω)) ∈ D)

∀D ∈ β(Rn),

que es llamada ley conjunta de X1, . . . , Xn

41

Page 46: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

42 INDICE GENERAL

Con esta notacion, las v. a. X1, . . . , Xn son independientes si y solo si

FX1,...,Xn(x1, . . . , xn) =

n∏i=1

FXi(xi)

Nota (X1, . . . , Xn) : Ω → Rn

ω → (X1(ω), . . . , Xn(ω))se llama vector aleatorio; con ley PX1,...,Xn en

(Rn, β(Rn)) y distribucion FX1,...,Xn

Definicion El vector aleatorio (X1, . . . , Xn) se dice abs. continuo si ∃fX1,...,Xn : Rn → R+ que

verifique: FX1,...,Xn(x1, . . . , xn) =

x1∫−∞

· · ·xn∫−∞

fX1,...,Xn(z1, . . . , zn) dz1 . . . dzn, ∀(x1, . . . , xn) ∈ Rn

A fX1,...,Xn se le llama (funcion de) densidad conjunta de (X1, . . . , XN ). NecesariamentefX1,...,Xn verifica:

(0) fX1,...,Xn : Rn → R

(1) fX1,...,Xn ≥ 0

(2)

∞∫−∞

· · ·∞∫−∞

fX1,...,Xn(z1, . . . , zn) dz1 . . . dzn = 1

Ademas se cumple:d(FX1,...,Xn)

dx1, . . . , dxn(x1, . . . , xn) = fX1,...,Xn(x1, . . . , xn), ∀(x1, . . . , xn) ∈ Rn

Nota En este contexto fXi se llama la densidad marginal de fX1,...,Xn (Lo mismo con FXi , quese llama la distribucion marginal de FX1,...,Xn)

Propiedad Las v. a. X1, . . . , Xn absolutamente continuas (conjuntamente) son independientessi y solo si:

fX1,...,Xn(x1, . . . , xn) =

n∏i=1

fXi(xi)

Es decir, la densidad conjunta en el producto de las densidades marginales.

Demostracion Tenemos que las v. a. X1, . . . , Xn son independientes si y solo si

FX1,...,Xn(x1, . . . , xn) =

n∏i=1

FXi(xi)

Aplicandodn

dx1, . . . , dxnse obtiene lo buscado. Reciprocamente, si aplicamos

x1∫−∞

· · ·xn∫−∞

a fX1,...,Xn

obtenemos lo aquı presentado.

Nota Todo lo relativo a densidad conjunta es salvo conjunto de medida de Lebesgue 0 en Rn

Observemos que si X es abs. continua, entonces Y = X2 es abs. continua, pero el vectoraleatorio (X,X2) no es abs. continuo.

Definicion La sucesion de v. a. X1, . . . , Xn son independientes si y solo si ∀n ≥ 1; X1, . . . , Xn

son independientes.

Page 47: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 43

Cambio de Variables

Lo haremos solo en caso de una v. a. (mas adelante veremos el caso del vector aleatorio).

Teorema Sea X : Ω → R v. a. abs. continua con densidad fX y sea h : R → R con derivadacontinua. Entonces:

Y = hX : Ω → R

ω → Y (ω) = hX(ω) = h(X(ω))

Es v. a. abs. continua cuya funcion de densidad fY verifica:

fY (y) =∑

X(y)∈h−1(y)

1

|h′(X(y))|· fX(X(y)), ∀y ∈ R

Luego, si h es inyectiva (como h : R→ R esto significa h creciente o decreciente), lo anteriores:

fY (y) =1

|h′(h−1(y))|· fX(h−1(y)), ∀y ∈ R

Nota Sea S = h(X(Ω)) ⊆ R, el rango de hX. Entonces, las 2 anteriores ecuaciones sedeben leer ∀y ∈ S en vez de ∀y ∈ R

Por otra parte, se necesita que z ∈ S : h′(z) = 0 sea un conjunto de puntos aislados. DondeS abierto, X(Ω) ⊆ S, (h : S → S).

Demostracion Lo hacemos considerando todas las regularidades que necesitamos. Sea hcreciente con h′ > 0.

FY (y) = P(Y ≤ y) = P(hX ≤ y)

=︸︷︷︸h creciente

P(X ≤ h−1(y)) = FX(h−1(y))

Aplicandod

dyqueda:

fY (y) =d(FY (y))

dy=d(FX(h−1(y)))

dy= fX(h−1(y))

1

h′(h−1(y))

Sea h decreciente con h′ < 0.

FY (y) = P(Y ≤ y) = P(hX ≤ y)

=︸︷︷︸h decreciente

P(X ≥ h−1(y)) = P(X > h−1(y)) = 1− FX(h−1(y))

Aplicandod

dyqueda:

fY (y) = −fX(h−1(y))1

h′(h−1(y))= fX(h−1(y))

1

|h′(h−1(y))|

Veamos el caso no inyectivo: Por simpleza solo veremos el caso h′ 6= 0, excepto por el puntoh′(x0) = 0, en que la situacion es un “maximo” o “minimo”.

Page 48: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

44 INDICE GENERAL

Sea y ∈ [0, h(x0)], h−1(y) = X−(y), X+(y):

FY (y) = P(Y ≤ y) = P(ω : h(X(ω)) ≤ y)

= P(ω : X(ω) ≤ X−(y) ∨X(ω) ≥ X+(y))

=︸︷︷︸disjuntos

P(X ≤ X−(y)) + P(X ≥ X+(y))︸ ︷︷ ︸abs. continua

= FX(X−(y)) + (1− FX(X+(y)))

Luego:

fY (y) = fX(X−(y)) · d(X−(y))

dy− fX(X+(y)) · d(X+(y))

dy

= fX(X−(y)) · 1

|h′(X−(y))|+ fX(X+(y)) · 1

|h′(X+(y))|

=∑

X(y)∈h−1(y)

fX(X(y)) · 1

|h′(X(y))|

Page 49: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 14 - 29/04/2013

Si X v. a. abs. continua, entonces PX(x ∈ R : fX(x) > 0) = 1, pues

∫x:fX(x)=0

fX(x)dx = 0. Luego,

en caso abs. continuo, podemos suponer que:

X(Ω) = x ∈ R : fX(x) > 0

Ası pues, sea D abierto, x : fX(x) > 0 ⊆ D, que lo llamaremos S. Para h : D → R conderivada continua y tal que x ∈ D : h′(x) = 0 es un conjunto finito de puntos aislados. Setendra que la v. a. Y = hX verifica el teorema ya enunciado.

Y es absolutamente continua con densidad fY tal que FY (y) = 0 si y /∈ h(D). Para y ∈ h(D):

fY (y) =∑

X(y)∈h−1(y)

fX(X(y)) · 1

|h′(X(y))|

Si h es inyectivo, para y ∈ h(D):

fY (y) = fX(h−1(y))1

|h′(h−1(y))|

Ejemplo Sea X v. a. abs. continua con fX(x) > 0 ∀x ∈ R. Sea h : R→ R con h(x) = x2.Y = hX = X2(y). Por lo anterior D = R = x : fX(x) > 0; h(D) = R+. Y tiene densidadfY (y) = 0 si y /∈ R+. Ademas, podemos considerar fY (0) = 0

Para y > 0 se tiene:

FY (y) = P(Y ≤ y) = P(X2 ≤ y) = P(−√y ≤ X ≤ √y)

= P(X ≤ √y)− P(X ≤ −√y) = FX(√y)− FX(−√y)

Luego,d

dy:

fY (y) = fX(√y)

1

2√y

+ fX(−√y)1

2√y

h−1(y) = −√y,√y, fY (y) =∑

X(y)∈h−1(y)

fX(X(y)) · 1

|h′(X(y))|

Complemento a la densidad del vector aleatorio.

45

Page 50: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

46 INDICE GENERAL

Proposicion Sean X1, ldots,Xn v. a. Supongamos que el vector aleatorio (X1, . . . , Xn) tienedensidad conjunta fX1,...,Xn , es decir:

P(ω : (X1(ω), . . . , Xn(ω) ∈ C) =

∫C

fX1,...,Xn(x1, . . . , xn)dX1, . . . , dXn ∀C ∈ β(Rn)

Entonces cada v.a X1 es abs. continua con densidad fXi dada por

fXi(xi) =

+∞∫−∞

dz1 · · ·+∞∫−∞

dznfX1,...,Xn(z1, . . . , xi︸︷︷︸posicion i

, . . . , zn), Sin tomar en cuenta

∫zi

Demostracion

FXi = P(Xi ≤ xi) = P(X1 ≤ ∞, . . . , Xi ≤ xi, . . . , Xn ≤ Xn)

= P((X1, . . . , Xn) ∈ (−∞, xi)×Rn−1)

=

+∞∫−∞

dz1 · · ·xi∫−∞

dzi · · ·+∞∫−∞

dznfX1,...,Xn(z1, . . . , zn)

d

dx

x∫−∞

h(t)dt = h(x)⇒

fXi(xi) =dFXi(xi)

dxi=

+∞∫−∞

dz1 · · ·+∞∫−∞

dznfX1,...,Xn(z1, . . . , xi, . . . , zn)

Esperanza

La esperanza es el valor medio o “esperado” de una v. a.

Definicion Sea X v. a. Entonces, cuando existe su esperanza es:

E(X) =

+∞∫−∞

x dFX(x)

Sobre la existencia: E(X) =

+0−∫−∞

x dFX(x)

︸ ︷︷ ︸≤0

+

+∞∫0−

x dFX(x)

︸ ︷︷ ︸≥0

• E(X) no existe si

0−∫−∞

x dFX(x) = −∞ y

∞∫0−

x dFX(x) =∞

• E(X) existe si

0−∫−∞

x dFX(x) > −∞ y/o

∞∫0−

x dFX(x) >∞ (el y implica que es finito)

Cada vez que escribamos E(X) supondremos que existe y es finita.

Page 51: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 47

Propiedades

(a) Si Xa = a, v. a. cte.E(Xa) = a

(b) Si X = 1B con B ∈ β (funcin indicadora)E(1B) = P(B)

(c) X ≥ 0⇒ E(X) ≥ 0; X ≥ Y ⇒ E(X) ≥ E(Y )

(d) X,Y v. a. α, β ∈ R. Entonces: E(αX + βY ) = αE(X) + βE(Y ). (Lineal)

(e) Si X es discreta, es decir para cierto I numerable X =∑a∈I

a1X=a, entonces

E(X) =∑a∈I

aP(X = a) =∑a∈I

aPX(a)

(f) Si X es abs. continua con densidad fX : E(X) =

+∞∫−∞

x fX(x)dx

(g) Si h : R→ R Boreliano, entonces E(h(X)) =

+∞∫−∞

h(x) dFX(x), dFX(x)

(g’) E(X − E(X)) = 0

(h) Si X,Y son v. a. independientes, entonces E(XY ) = E(X)E(Y ). Aun mas, si

ϕ : R→ R y ψ : R→ R son borelianas, entonces ϕ(X), ψ(Y ) son independientes,

por lo que E(ϕ(X)ψ(Y )) = E(ϕ(X))E(ψ(Y ))

(i) Si h : R→ R es convexa, E(h(X)) ≥ h(E(X)). Si es concava, E(h(X)) ≤ h(E(X))

(j) Si Xn X puntualmente y monotonamente, entonces E(Xn) E(X).

Si Xn X puntualmente y monotonamente, entonces E(Xn) E(X)

Si Xn →︸︷︷︸n→∞

X puntualmente y se tiene |Xn| ≤ Y con E(Y ) <∞, entonces E(Xn) →︸︷︷︸n→∞

E(X)

Page 52: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

48 INDICE GENERAL

Page 53: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 15 - 02/05/2013

Demostracion Propiedades de la clase anterior

(a) Sea Xa = a v. a. cte. FXa(x) = P(Xa ≤ a) = P(a ≤ Xa)

= 1a =

1 Si x ≥ a0 Si x < a

= escalon de Heaviside

E(Xa) =

∞∫−∞

x dFXa(x) = a (FXa(a)− FXa(a−))︸ ︷︷ ︸=1

= a

(b) Sea B ∈ β, X = 1B FX(x) = P(ω : 1B(ω) ≤ x) =

0 Si x < 0

P(Bc) = 1− P(B) Si x ∈ [0, 1)

1 Si x ≥ 1

Entonces E(1B) =

+∞∫−∞

xdFX(x) = 0(1− P(B)) + 1(1− (1− P(B))) = P(B)

(e) X discreta a valores en I ⊆ R numerable. X =∑a∈I

P(X = a) Entonces

E(X) =

∞∫−∞

xdFX(x) =∑a∈I

a(FX(a)− FX(a−)) =∑a∈I

aP(X = a)

(h) Probemoslo solo para X = 1B y Y = 1D con B,D ∈ β. 1B y 1D independientes ⇔ B y Dindependientes.

E(1B1D) = E(1B∩D) = P(B ∩D) = P(B)P(D) = E(1B)E(1D)

Propiedades

(a) Si X1, . . . , Xn son v. a. y h : Rn → R funcion boreliana, entoncesh(X1(ω), . . . , Xn(ω) : Ω → R

ω → h(X1, . . . , Xn)es v. a. Se tiene

E(h(X1, . . . , Xn)) =

∫Rn

h(X1, . . . , Xn) dFX1,...,Xn(x1, . . . , xn)

Si los X1, . . . , Xn son independientes se tiene

E(h(X1, . . . , Xn)) =

∫Rn

h(X1, . . . , Xn) dFX1(x1) . . . dFXn(xn)

49

Page 54: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

50 INDICE GENERAL

Y si ademas h(X1, . . . , Xn) =

n∏i=1

hi(xi) queda

E(h(X1, . . . , Xn)) =

∫Rn

n∏i=1

hi(xi) dFX1(x1) . . . dFXn(xn) =

n∏i=1

∫Rn

hi(xi) dFXi(xi)

(b) Se tiene h ≥ 0, E(X) = 0⇒ P(X = 0) = 1

Nota P(X = a) = 1 se dice X = a normalmente.

Demostracion Como X ≥ 0, si P(X = 0) < 1, ∃a > 0 tal que P(X ≥ a) > 0. Ademas,como X ≥ 0 se tiene X(ω) ≥ a · 1X≥a. Luego, E(X) ≥ E(a)E(1X≥a) = aP(X ≥ a) lo que esuna contradiccion.

Si X v. a. notamos µX = E(X). En general escribiremos mk = E(Xk) para k ≥ 1 y losllamamos momentos de orden k. Ası pues m1 = µX

Propiedades

• E(X2k) ≥ (E(X))2k, ∀k ≥ 1• Si X ≥ 0, entonces E(Xk) ≥ (E(X))k, ∀k ≥ 1Es decir, m2k ≥ m2k

1 y si X ≥ 0, mk ≥ mk1

Demostracion Por (i) y como g(x) = x2k es convexa para k ≥ 1 se deduce la primera. Lasegunda se deduce de g : R+ → R, g(x) = xk con k ≥ 1 es convexa y de X(Ω) = R+.

Varianza

Definicion Sea X v. a. Su varianza es

V ar(X) = E((X − µX)2) = E((X − E(X))2)

Propiedades Para X v. a. se verifica:

(1) V ar(X) ≥ 0(2) V ar(X) > 0⇔ P(X = µX) = 1⇔ X = a cte. con probabilidad 1.(3) Si α, β ∈ R, V ar(α+ βX) = β2V ar(X)(4) V ar(X) = E(X2)− (E(X))2

(5) La funcion desviacion cuadratica ϕ(C) = E((X − C)2) alcanza su minimo en C = µX yϕ(µX) = V ar(X)

(6) Si X,Y son independientes, entonces V ar(X+Y ) = V ar(X)+V ar(Y ). Mas generalmente, si

X1, . . . , Xn son v. a. independientes y a0, . . . , an ∈ R, se tiene V ar(a0+

n∑i=1

aixi) =

n∑i=1

a2iV ar(Xi)

Nota V ar(X) esta definida si E(X) es finita. V ar(X) es finita si E(X) y E(X2) son finitas.Para todo efecto consideraremos que V ar(X) existe y es finita.

Page 55: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 51

Demostracion(1) (X − µX)2 ≥ 0⇒ V ar(X) = E((X − µX)2) ≥ 0

(2) Sea Y = (X − µX)2, se tiene Y ≥ 0. E(Y ) = V ar(X). Si V ar(X) = 0 se tiene E(Y ) = 0, yse concluye P(Y = 0) = 1, esto es P(X = µX) = 1. Ademas P(X = a) = 1 para cierto a ∈ R setiene E(X) = a, de donde P(X = µX) = 1 y V ar(X) = E((X − µX)2) = 0. Juntando todo estose tienen las equivalencias.

(3) Sea Y = α+ βX. Por linealidad E(Y ) = α+ βE(X), es decir, µY = α+ βE(X) = α+ βµX .Luego, V ar(α+ βX) = V ar(Y ) = E((α+ βX − α− βµX)2) = E(β2(X − µX)2) = β2V ar(X)

(4) V ar(X) = E((X − µX)2) = E(X2 − 2XµX + µ2X)

= E(X2)− 2E(X)µX + µ2X = E(X2)− µ2

X

(5) ϕ(C) = E((X −C)2) = E(X2 − 2CX +C2) = E(X2)− 2CµX +C2. Derivando con respectoa C, obtenemos C = µX . Volviendo a derivar con respecto a C obtenemos 2 y 2 > 0, luego enC = µX alcanza su mınimo y por definicion ϕ(µX) = V ar(X).

(6) Sean X,Y v. a. indep. Se tiene µx+y = µX + µY .

V ar(X + Y ) = E((X + Y − µX − µy)2) = E((X − µX)2 + 2(X − µX)(Y − µY ) + (Y − µY )2)= V ar(X) + 2E((X − µx)(Y − µY )) + V ar(Y )

.

Como X,Y indep., E(X−µx)E(Y −µY ) que es 0 por (g’). Luego, V ar(X+Y ) = V ar(X)+V ar(Y )

Covarianza

Definicion Si X,Y son v. a., su Covarianza es:

Cov(X,Y ) = E((X − µx)(Y − µY ))

Propiedades(1) V ar(X + Y ) = V ar(X) + 2Cov(X,Y ) + V ar(Y )(2) Cov(α+ βX, γ + δY ) = βδCov(X,Y )(3) Cov(X,X) = V ar(X)

Demostracion(1) Por lo hecho en (6)(2) Por un desarrollo analogo(3) Directa

Definicion• Una v. a. Z tal que E(Z) = 0 se dice centrada• Una v. a. Z tal que E(Z) = 0 y V ar(Z) = 1 se dice normalizada.

Propiedades• Sea X v. a. Si E(X) es finita, entonces Z = X − E(X) es centrada.

• Sea X v. a. Si E(X) es finita y 0 < V ar(X) <∞, entonces Z =X − E(X)√V ar(X)

es normalizada.

Nota V ar(X) > 0 quiere decir que X no es constante.

Demostracion Punto 2:

V ar

(X − E(X)√V ar(X)

)=︸︷︷︸(3)

V ar(X)

V ar(X)= 1

Page 56: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

52 INDICE GENERAL

Nota σX =√V ar(X) se llama desviacion tıpica. Luego, si X no es constante

X − µXσX

es

normalizada.

Page 57: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 16 - 07/05/2013

Sumas de Variables Aleatorias Independientes

Caso Discreto

Recordemos que si X toma valores en I ⊆ R numerable, colocabamos PX(a) = P(X = a), su

densidad discreta y se tenia∑a∈I

PX(a) = 1

Proposicion Sean X e Y v. a. independientes a valores en Z. Entonces X+Y es v. a. a valoresen Z con densidad discreta:

PX+Y (k) =∑l∈Z

PX(l)PY (k − l), ∀k ∈ Z, es decir PX+Y (k) = PX ∗ PY

Convolucion.

Demostracion PX+Y = P(X + Y = k)Probabilidades totales︷︸︸︷

=∑l∈Z

P(X + Y = l|X = l)

=∑l∈Z

P(Y = k − l|X = l) =∑l∈Z

P(Y = k − l)P(X = l)

=∑l∈Z

PY (k − l)PX(l)

Nota La convolucion p ∗ q(k) =∑l∈Z

p(l)q(k − l):

Es conmutativa: p ∗ q = q ∗ p

Es asociativa: p ∗ (q ∗ r) = (p ∗ q) ∗ r. Luego, se escribe p ∗ q ∗ r

δ0 dada por δ0(k) =

1 Si k = 0

2 Si k 6= 0es neutro de ∗: p ∗ δ0 = δ0 ∗ p = p, pues δ0 es la

densidad discreta de X = 0

Propiedad Si X1, . . . , Xn son v. a. ind. a valores en Z, entonces X1 + . . .+Xn es ind. a valoresen Z y:

PX1+...+Xn = PX1∗ · · · ∗ PXn

Demostracion Por induccion.

53

Page 58: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

54 INDICE GENERAL

Corolario Sea X,Y v. a. indep. a valores en Z+. Entonces, X + Y es a valores en Z+ y setiene:

PX+Y (k) =

k∑l=0

PX(k − l)PY (k) = PX ∗ PK , ∀k ∈ Z+

PX+Y (k) = 0 si k < 0

Demostracion PY (l) = 0 si l < 0 y PX(k − l) = 0 si l > k, pues X,Y a valores en Z+

Una expresion analoga para X1, . . . , Xn a valores en Z+ es:

PX1,...,Xn(k) =

k∑l1=0

k−l1∑l2=0

· · ·k−

∑n−2i=1 li∑

ln−1

PX1(l1)PX2(l2) · · ·PXn(k −n−1∑i=0

li)

Caso Absolutamente Continuo

Sea X v. a. Se tiene:

dFX(x) = P(X ∈ (x, x+ dx])

Luego, si X v. a. abs. continua con densidad fX(x):

dFX(x) = fX(x)dx = P(X ∈ (x, x+ dx])

Sea (X,Y ) vector aleatorio abs. continuo con densidad f(X,Y )(x, y). Entonces:

f(X,Y )(x, y) dx dy = P(X ∈ (x, x+ dx], Y ∈ (y, y + dy])

= P((X,Y ) ∈ (x, x+ dx]× (y, y + dy])

Propiedad Sean X,Y v. a. abs. continuas e indep. Entonces, X +Y es v. a. abs. continua condensidad:

fX+Y (z) = fX(z) ∗ fY (z) =

∞∫−∞

fX(x)fy(z − x) dx

Si ademas X e Y toman valores en R+ (fX(u) = fY (u) = 0 cuando u < 0), entonces X + Ytoma valores en R+ y se tiene:

fX+Y (z) =

z∫0

fX(x)fy(z − x) dx

Page 59: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 55

Demostracion

FX+Y (z) = P(X + Y ≤ z) =

∞∫−∞

P(X ∈ (x, x+ dx], X + Y ≤ z)

=

∞∫−∞

P(X ∈ (x, x+ dx], Y ≤ z − x)

=

∞∫−∞

P(X ∈ (x, x+ dx])P(Y ≤ z − x)

=

∞∫−∞

fX(x)FY (z − x)

Entonces, haciendod

dzobtenemos:

fX+Y (z) =

∞∫−∞

fX(x)fY (z − x) dx

Propiedad Si X1, . . . , Xn v. a. abs. continuas e indep., se tiene:

f∑ni=1Xi

= fX1 ∗ · · · ∗ fXn

Demostracion Induccion

Nota Si f, g, h densidades, entonces:

f ∗ g = g ∗ f , es conmutativa.

f ∗ (g ∗ h) = (f ∗ g) ∗ h, es asociativa.

δ0 = delta de Dirac es el neutro de ∗

Desigualdades - Tchevycheff

Propiedades

1. Si X v. a. ≥ 0, entonces, ∀ε > 0 X ≥ ε1x≥ε

2. Si X v. a. y µX = E(X) es finita, entonces ∀p > 0,∀ε > 0, |X − µX |p ≥ εp1|X−µX |≥ε

Demostracion Si X(ω) ≥ ε, la desigualdad es lo mismo, pues 1X≥ε = 1

1. Si X ∈ [0, ε), entonces queda X > 0.

2. Se aplica 1 a la v. a. Z = |X − µX |p y εp.

Page 60: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

56 INDICE GENERAL

Desigualdad de Tchevycheff

Sea X v. a., ε > 0, entonces

1. P(|X| ≥ ε) ≤ E(|X|)ε

2. Si µX es finita, entonces: P(|X − µX | ≥ ε) ≤E(|X − µX |p)

ep, ∀p ≥ 1

3. P(X ≥ ε) ≤ e−εtP(etX), ∀t > 0

Demostracion Se tiene:

1. |X| ≥ ε1|X|≥ε. Luego, E(|X|) ≤ E(ε1|X|>ε) = εP(|X| ≥ ε)

2. Resulta de aplicar E a |X − µX |p ≥ εp1|X−µX |≥ε

3. Como t > 0, etX ≥ etε1X≥ε. Luego se aplica E

Page 61: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 17 - 09/05/2013

Tipos de Convergencia

Primero veamos algunos tipos de convergencia. Sea (Ω, β,P) espacio de probabilidad y (Xn :n ∈ N) es sucesion de v. a. y X es v. a.

Definicion

(a) Xn →︸︷︷︸n→∞

X con probabilidad casi segura (Pcs) si P(ω ∈ Ω : Xn(ω)→ X(ω)) = 1

(b) Xn →︸︷︷︸n→∞

X en probabilidad si ∀ε > 0 : lımn→∞

P(ω ∈ Ω : |Xn(ω)−X(ω)| > ε) = 0

(c) XnLp→︸︷︷︸

n→∞

X en Lp(P) si para p ≥ 1, E(|Xn −X|p) →︸︷︷︸n→∞

0

Proposicion Se tiene:

(1) Xn →︸︷︷︸n→∞

X Pcs ⇒ Xn → X en probabilidad.

(2) XnLp→︸︷︷︸

n→∞

X ⇒ Xn → X en probabilidad.

Demostracion

(1) Para m,n ∈ N definimos:

C(m,n) = ω ∈ Ω : |Xn(ω)−X(ω) ≤ 1

m

en donde C(m+ 1, n) ⊆ C(m,n). Se tiene:

Xn(ω) →︸︷︷︸n→∞

X(ω)⇔ ∀m ∈ N ∃n ∈ N tal que ∀k ≥ n, ω ∈ C(m, k)

⇔ ω ∈⋂m∈N

⋃n∈N

⋂k≥n

C(m, k)

Luego, Xn →︸︷︷︸n→∞

X Pcs si y solo si P(⋂m∈N

⋃n∈N

⋂k≥n

C(m, k)) = 1

57

Page 62: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

58 INDICE GENERAL

Se tiene que⋃n∈N

⋂k≥n

C(m, k) decrece con m, de donde:

Xn →︸︷︷︸n→∞

X Pcs si y solo si ∀m ∈ N P(⋃n∈N

⋂k≥n

C(m, k)) = 1

esto es si y solo si ∀m ∈ N P(⋂n∈N

(⋃k≥n

C(m, k)c)) = 0

Se tiene que⋃k≥n

C(m, k) decrece con n, de donde:

Xn →︸︷︷︸n→∞

X Pcs si y solo si ∀m ∈ N lımn→∞

P(⋃k≥n

C(m, k)c) = 0

Como C(m,n)c ⊆⋃k≥n

C(m, k)c, se tiene que lo anterior implica

∀m ∈ N, lımn→∞

P(C(m,n)c) = 0, esto es

∀m ∈ N, lımn→∞

P(|Xn −X| ≥1

m) = 0

que equivale a Xn →︸︷︷︸n→∞

X en probabilidad P

(2) Por Tchevycheff, ∀ε > 0 se tiene P(|Xn −X| ≥ ε) ≤E(|Xn −X|p)

εp

Nota Supongamos para p ≥ 1 fijo:

∀n ∈ N, E(|Xn|p) <∞, E(|X|p) <∞

Entonces:

1. Si XnLp→︸︷︷︸

n→∞

X, ∃ subsucesion nk∞ tal que Xn →︸︷︷︸n→∞

X con Pcs

2. Si Xn →︸︷︷︸n→∞

X con Pcs y suph≥1|Xn| ≤ Y , con E(|Y |p) <∞, entonces Xn

Lp→︸︷︷︸n→∞

X

Ejemplo Tomemos Ω = [0, 1], β([0, 1]) = B ∈ β(R) : tales que B ∈ [0, 1] y P = λ, medidade Lebesgue en ([0, 1], β([0, 1])), es decir, λ((a, b]) = b− a, ∀(a, b] ∈ [0, 1]

Todo n ∈ N lo representamos de manera unica como n = 2l + r, l ≥ 0, r ∈ 0, 1, . . . , 2l − 1,ya que N = ·

⋃l≥0

2l, . . . , 2l+1 − 1. Entonces: Xn = 1( r2l, r+1

2l)

Para ε > 0 se tiene

P(|Xn| > ε) = λ(|Xn| > ε) = λ

((r

2l,r + 1

2l

])=

1

2l→︸︷︷︸

n→∞

0

Luego Xn →︸︷︷︸n→∞

0 en probabilidad P, pero ω ∈ [0, 1] : Xn →︸︷︷︸n→∞

0 6= ∅. Luego, Xn 9 0 con Pcs

Page 63: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 59

Teorema de los Grandes Numeros

Sea (XN : n ≥ 1) sucesion de v. a. indep. igualmente distribuidas. Asumimos que E(X1) esfinito. Entonces:

1

N

N∑n=1

Xn →︸︷︷︸N→∞

E(X1),Pcs

Es decir:

P(ω ∈ Ω : lımN→∞

1

N

N∑n=1

Xn(ω) = E(X1)) = 1

Que significa que el promedio empırico converge al teorico, y se le llama a menudo TeoremaFuerte de los Grandes Numeros.

Nota El Teorema Debil de los Grandes Numeros se refiere a:

1

N

N∑n=1

Xn →︸︷︷︸N→∞

E(X1), en probabilidad P

Nota Si Xn ∼Bernoulli(p), se tiene E(Xn) = p. Luego, en este caso el Teorema de los GrandesNumeros:

1

N

N∑n=1

Xn →︸︷︷︸N→∞

p, Pcs

(N∑n=1

Xn = |n ∈ 1, . . . , N : Xn − 1| ∼ Binomial(n, p)

)

Demostracion Solo probaremos el Teorema Debil. En caso

E(|Xn|2) <∞, ∀n E(|X|2) <∞

Por hipotesis E(X1) es finito. Probaremos bajo estas hipotesis la convergencia en L2, ya queprobamos que implica la convergencia en probabilidad.

Sea Sn =

N∑n=1

Xn. Se tiene:

V ar

(SnN

)=

1

N2V ar

(N∑n=1

Xn

)=︸︷︷︸

ind.

1

N2

N∑n=1

V ar(Xn) =︸︷︷︸= dist.

V ar(X1)

N

Por otra parte:

E(SnN

)= E(X1)

Luego:

V ar

(SnN

)= E

((SnN− E(X1)

)2)

=V ar(X1)

N

Page 64: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

60 INDICE GENERAL

Luego:

SnN

L2

→︸︷︷︸N→∞

E(X1)

[pues

V ar(X1)

N→︸︷︷︸

N→∞

0

]Recordemos que por Tchevycheff:

P(∣∣∣∣SnN − E(X1)

∣∣∣∣ ≥ ε) ≤ V ar(SnN

)ε2

=V ar(X1)

ε2N→︸︷︷︸

N→∞

0

Que es la convergencia en probabilidad.

Page 65: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 18 - 14/05/2013

Teorema de los Grandes Numeros en Lp

Sean (Xn : n ∈ N) v. a. ind. id. dist. tal que E(X1) finita. Supongamos que para p ≥ 1 fijo setiene: E(|X1|p) <∞. Entonces:

1

n

n∑i=1

XiLp→︸︷︷︸

n→∞

E(X1), i. e. E

(∣∣∣∣∣ 1nn∑i=1

Xi − E(X1)

∣∣∣∣∣p)→︸︷︷︸

n→∞

0

Nota1

n

n∑i=1

Xi − E(X1) =1

n

n∑i=1

(Xi − E(Xi)), pues E(Xi) = E(X1), ∀i ∈ N

Expansion Diadica y v. a. Bernoulli

(1

2

)Ah, sı, sı

Transf. de Laplace y Funcion Generadora de Momentos

Definicion Sea X v. a. acotada inferiormente i. e. ∃m ∈ R tal que P(X ≥ m) = 1. SuTransformada de Laplace es a funcion:

ψX : R+ → R+

s → ψX(s)con ψX(s) = E(e−sX) =

∞∫m

e−sx dFX(x)

Nota Como X es acotado inferiormente, ψX(s) es finito ∀s ∈ R

Propiedades Sea X acotado inferiormente por m:

(a) ψX(s) ∈ (0, e−sm], ∀s ≥ 0. En particular si X ≥ 0 se tiene ψX(s) ∈ (0, 1]

(b) ψX(0) = 1

(c) Si α ∈ R, β ≥ 0 se tiene ψα+βX(s) = e−sαψX(βs)

(d) La funcion ψX solo depende de FX . Aun mas, se cumple que:ψX = ψY ⇔ FX = FY , donde ψX(s) = ψY (s) ∀s ∈ R+

61

Page 66: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

62 INDICE GENERAL

(e) Si E(|Xn|) <∞, entonces ∃dnψX(s)

dsn

∣∣∣0

= (−1)nE(Xn)

(f) Si X es discreta tomando valores en el conjunto numerable I ⊆ [m,∞), se tiene:

ψX(s) =∑a∈I

e−saPX(a) =∑a∈I

e−saP(X = a)

(g) Si X es abs. continua con densidad fX tal que fX = 0 si x < m se verifica:

ψX(s) =

∞∫m

e−sxfX(x) dx

(h) Si X e Y son independientes: ψX+Y (s) = ψX(s) · ψY (s)

Nota De (c) y (h) se obtiene:Si X1, . . . , Xn son v. a. indep. acotadas inferiormente, α ∈ R y β1, . . . , βn ≥ 0, entonces:

ψα+

n∑j=1

βjXj= e−sα

n∏j=1

ψXj (βjs)

Demostracion

(a) e−sX ≤ e−sm si X ≥ m

(b) e−0X = 1

(c) ψα+βX(s) = E(e−(α+βX)s) = e−αsE(e−βXs) = e−αsψX(βs)

(d) FX = FY ⇒ ψX =

∫e−sx dFX(x) =

∫e−sx dFY (x) = ψY (s), ∀s ∈ R+

Nota FX(x) =

∞∫−∞

1(−∞,X](z) dFX(z), ψX(s) =

∞∫−∞

e−sz dFX(z)

(e) Si E(|X|n) <∞, entonces:

dnψX(s)

dsn

∣∣∣0

=

∞∫m

(dn e−sx

dsn

) ∣∣∣0dFX(x) =

∞∫m

(−1)nxn dFX(x) = (−1)nE(Xn)

(h) Sean X e Y indep. Entonces:ψX+Y (s) = E(e−s(X+Y )) = E(e−sXe−sY ) = E(e−sX)E(e−sY ) = ψX(s)ψY (s)

A ψX(s), s ∈ R+ a menudo se le llama funcion generadora de momentos, aunque tambien

se usa este nombre para la funcion ξX : (0, 1) → R+

µ → ξX(µ)con ξX(µ) = E(µX) =

∞∫m

µx dFX(x).

Notemos que ξX(µ) = ψX(− log(µ)), ∀µ ∈ (0, 1] y reciprocamente ψX(s) = ξX(e−s), ∀s ≥ 0

Page 67: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

Clase 19 - 16/05/2013

Nota Si F funcion de distribucion tal que F (m−) = 0 (es decir, F esta “concentrado” en[m,∞)), se define:

∀s ≥ 0 ψF (s) =

∞∫m

e−sx dF (x) Transformada de Laplace

∀µ ∈ (0, 1] ξF (µ) =

∞∫m

µx dF (x) Funcion generadora de F

Transformada de Fourier. Funcion Caracterıstica

Definicion Sea X v. a. Su funcion caracteristica es la funcion:

ϕX : R → C

t → ϕX(t)con ϕX(t) = E(eitX) = E(cos(tX) + i sin(tX)) = E(cos(tX)) + iE(sin(tX))

Se tiene entonces:

ϕX(t) =

∞∫−∞

eitx FX(x) =

∞∫−∞

cos(tx) dFX(x) + i

∞∫−∞

sin(tx) dFX(x)

Nota Si F es funcion de distribucion, se define su funcion caracterıstica por:

ϕF : R → C

t → ϕX(t)con ϕF (t) =

∞∫−∞

eitx FX(x) =

∞∫−∞

cos(tx) dFX(x) + i

∞∫−∞

sin(tx) dFX(x)

Propiedades

(a) Para toda v. a. X siempre ∃ su funcion caracterıstica.

(b) |ϕX(t)| ≤ 1, ∀t ∈ R

(c) ∀a, b ∈ R, ϕa+bX(t) = eitaϕX(bt)

(d) ϕX solo depende de FX . Aun mas, ϕX = ϕY ⇔ FX = FY

(e) Si ∃E(|X|n) <∞ para cierto n ∈ N, entonces ∃ dn

dtnϕX(t)

∣∣∣0

= inE(Xn)

63

Page 68: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

64 INDICE GENERAL

(f) Si X : discreta a valores en I ⊆ R numerable

ϕX(t) =∑a∈I

eitxPX(a) =∑a∈I

eitxP(X = a)

(g) Si X abs. continua con densidad fX

ϕX(t) =

∞∫−∞

e−txfX(x)dx =

∞∫−∞

cos(tx)fX(x) dx+ i

∞∫−∞

sin(tx)fX(x) dx

(h) Si X e Y son indep. se tiene: ϕX+Y (t) = ϕX(t)ϕY (t)

(i) ϕX(−t) = ϕX(t), siendo a+ ib = a− ib su complejo conjugado.

(j) ϕX(t) ∈ R, ∀t ∈ R⇔ FX = F−X , es decir X es simetrica con respecto al 0

(k) ϕX(t) uniformemente continua si ∀ε > 0 ∃δ > 0 tal que:|t− t′| < δ(ε)⇒ |ϕX(t)− ϕX(t′)| < ε

Nota De (c) y (h) se tiene que si X1, . . . , Xn indep. y α, β1, . . . , βn ∈ R:

ϕα+

n∑j=1

βjXj(t) = eiαt

n∏j=1

ϕXj (βjt)

Demostracion

(0) X v. a. ⇒ cos(tx) y sin(tx) son v. a. Estan acotados, toman valores en [−1, 1] por lo queE(cos(tX)) y E(sin(tX)) ∃ y son finitas, de donde ϕX(t) ∈ C esta bien definido.

(a) |ϕX(t)|2 = |E(cos(tX)) + iE(sin(tX))|2 = (E(cos(tX)))2 + (E(sin(tX)))2

≤ E(cos(tX)2) + E(sin(tX)2) = E(cos(tX)2 + sin(tX)2) = E(1) = 1

(i) ϕX(−t) = E(cos(−tX)) + iE(sin(−tX)) = E(cos(tX))− iE(sin(tX)) = ϕX(t)

(j) ϕX(t) ∈ R ∀t⇔ ϕX(t) = ϕX(t)⇔ ϕX(t) = ϕX(−t)⇔ ϕX(t) = ϕ−X(t) Luego, ϕX = ϕ−Xy por (b) concluimos que FX = F−X

Nota Todos los demas son iguales a las demostraciones de Laplace.

Ejemplo

(1) Xa = a v. a. constante. Se tiene ϕXa(t) = eiat ∀t ∈ R

(2) X ∼Bernoulli(p), ϕX(t) = (1− p) + peit ∀t ∈ R

Propiedad Si X ∼ N(µ, σ2), entonces:

ϕX(t) = eiµt−12 t

2σ2

, ∀t ∈ REn particular, si X ∼ N(0, 1), entonces:

ϕX(t) = e−t2

2

Page 69: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

INDICE GENERAL 65

Demostracion Si X ∼ N(0, 1), entonces µ + σX ∼ N(µ, σ2). Usando la propiedad (c),ϕµ+σX(t) = eiµtϕX(σt). Luego, solo hay que demostrar el caso particular.

Sea X ∼ N(0, 1), entonces,

ϕX(t) =1√2π

∞∫−∞

eitxe−x2

2 dx =1√2π

∞∫−∞

e−( x−it2 )2e−t2

2 dx

Y despues con un poquito de magia (que tengo que anadir despues) sale.

Teorema Central del Limite

Demos el marco conceptual para este resultado.

Definicion Sea (Fn : n ≥ 1)sucesion de funciones de distribucion y F funcion de distribucion.Definimos:

Fnd→ F ⇔ ∀x punto de continuidad de F se tiene lım

n→∞Fn(x) = F (x)

y se dice que Fn converge debilmente a F

Nota x punto de continuidad de F si F (x−) = F (x). Recordemos que F (x) = F (x+)siempre, luego, x punto de continuidad si F (x−) = F (x) = F (x+)

Definicion La sucesion de v. a. (Xn : n ∈ N) converge en distribucion a la v. a. X si:

FXnd→ FX . Se escribe XN

D→ X

Nota Tambien se dice que Xn converge en ley a X

En v. a. esta convergencia es la mas debil de las definidas, pues se tiene:

Propiedad Xn →n→∞

X en probabilidad ⇒ XnD→ X

Demostracion Sea Xn → X en probabilidad. Debemos mostrar que

lımn→∞

FXn(x) = FX(x) ∀x tal que FX(x−) = FX(x)

Nos bastara probar lo siguiente:∀x′ < x < x′′, FX(x′) ≤ lım inf

n→∞FXn(x) ≤ lım sup

n→∞FXn(x) ≤ FX(x′′)

Esto es suficiente pues si x es punto de continuidad de F nos basta tomar x′ x y x′′ x yse deduce FX(x) = lım

n→∞FXn(x)

Solo probaremos la primera desigualdad, ya que la tercera es analoga y la segunda es trivial.

FX(x′) = P(X ≤ x′) = P(X ≤ x′, |Xn −X| > x− x′) + P(X ≤ x′, |Xn −X| ≤ x− x′)≤ P(|Xn −X| > x− x′) + P(Xn ≤ x)

Tomando lım infn→∞

, como x− x′ > 0 y usando Xn → X en probabilidad, deducimos

Page 70: MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013 1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Rom an, que pasaron

66 INDICE GENERAL