MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013...
Transcript of MA3401 - Probabilidades · MA3401 - Probabilidades Transcriptor: Alan Beltr an Flores 1 Otono~ 2013...
Facultad de CienciasFısicas y MatematicasUniversidad de Chile
Martinez, Servet
MA3401 - Probabilidades
Transcriptor:Alan Beltran Flores1
Otono 2013
1Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Roman, que pasaron sus apuntes de clasesa las que falte (justificadamente, por supuesto)
2
Indice general
Clase 01 - 12/03/2013 1
Clase 02 - 14/03/2013 5
Clase 03 - 19/03/2013 9
Clase 04 - 21/03/2013 13
Clase 05 - 26/03/2013 17
Clase 06 - 28/03/2013 21
Clase 07 - 02/04/2013 23
Clase 08 - 04/04/2013 25
Clase 09 - 09/04/2013 27
Clase 10 - 16/04/2013 31
Clase 11 - 18/04/2013 35
Clase 12 - 23/04/2013 37
Clase 13 - 25/04/2013 41
Clase 14 - 29/04/2013 45
Clase 15 - 02/05/2013 49
Clase 16 - 07/05/2013 53
Clase 17 - 09/05/2013 57
Clase 18 - 14/05/2013 61
Clase 19 - 16/05/2013 63
3
4 INDICE GENERAL
Clase 01 - 12/03/2013
Axiomatica de Probabilidades
- Ω 6= ∅ conjunto de puntos llamado espacio muestral- β clase de eventos
Los elementos de β son subconjuntos de Ω, es decir, β ⊆ P(Ω), en donde P(Ω) = ω ⊆ Ωes el conjunto potencia de Ω.
En la axiomatica, β es una σ-algebra (sigma-algebra).
Definicion β es una σ-algebra si:
0. β ⊆ P(Ω)
1. ∅,Ω ⊆ β2. B ∈ β ⇒ Bc ∈ β, en donde Bc = Ω \B
3. Bn ∈ β ∀n ∈ N⇒⋃n∈N
Bn ∈ β
A la propiedad 3 se le llama “ser cerrado por complemento”, mientras a la propiedad 4 se lellama “ser cerrado por union numerable”.
Nota Bn ∈ β ∀n ∈ N lo escribiremos (Bn : n ∈ N)
Definicion Si β es σ-algebra, a la pareja (Ω, β) se le llama espacio medible.
Propiedad Toda σ-algebra β es un algebra [de conjuntos], es decir, verifica las propiedades 0,1, 2 y:
3′. A,B ∈ β ⇒ A ∪B ∈ β
Demostracion Tomemos B1 = A, B2 = B y Bn = A ∀n > 2. Se tiene entonces queBn ∈ β ∀n ∈ N. Luego,
A ∪B =⋃n∈N
Bn, que pertenece a β gracias a 3.
Observacion Notemos que la propiedad 3’ equivale a:
∀n ∈ N, B1, . . . , Bn ∈ β =⇒n⋃i=1
Bi ∈ β
1
2 INDICE GENERAL
Demostracion Por induccion:Para n = 1, es evidente. Entonces, si tenemos un n, demostremos para el n+ 1:
B1, ..., Bn, Bn+1 ∈ β ⇒n⋃i=1
Bi ∈ β;Bn+1 ∈ β
Por 3’
⇒
(n⋃i=1
Bi
)∪Bn+1 ∈ β ⇒
n+1⋃i=1
Bi ∈ β
Y queda asi demostrado.
Recuerdo Recordemos las leyes de Morgan:Para finitos: (
n⋃i=1
Bi
)c=
n⋂i=1
(Bci ) |
(n⋂i=1
Bi
)c=
n⋃i=1
(Bci )
Para numerables: (⋃n∈N
Bi
)c=⋂n∈N
(Bci ) |
(⋂n∈N
Bi
)c=⋃n∈N
(Bci )
Nota⋂n∈N
Bi = ω ∈ Ω : ω ∈ Bn, ∀n ∈ N
Propiedad Si β es σ-algebra, entonces:
a) B1, ..., Bn ∈ β ⇒n⋂i=1
∈ β
b) (Bn : n ∈ N) ⊆ β ⇒⋂n∈N∈ β
Demostracion
a) B1, ..., Bn ∈ β ⇒(2) Bc1, ..., Bcn ∈ β ⇒(3′)
n⋃i=1
Bci ∈ β
⇒
(n⋃i=1
Bci
)c=
n⋂i=1
Bi ∈ β
b) Es analoga a la anterior.
Propiedad Si β es σ-algebra, entonces verifica que:
A,B ∈ β ⇒ A \B ∈ β
A,B ∈ β ⇒ A4B ∈ β
INDICE GENERAL 3
Demostracion Ambas pueden ser escritas en forma de uniones e intersecciones
A \B = A ∩Bc
A4B = (A \B) ∪ (B \A) = (A ∩Bc) ∪ (B ∩Ac)
Todos los conjuntos resultados de uniones e intersecciones, uniones numerables, diferencias ydiferencias simetricas estaran en β.
Propiedad Sea β σ-algebra. Sea (Bn : n ∈ N) ⊆ β. Entonces:
lım supn→∞
Bn ∈ β
lım infn→∞
Bn ∈ β
En donde:
lım supn→∞
Bn =⋂n∈N
⋃k≥n
Bk
lım infn→∞
Bn =⋃n∈N
⋂k≥n
Bk
Nota
lım supn→∞
Bn = ω ∈ Ω : ∀n ∈ N ∃k ≥ n tal que ω ∈ Bk
= ω ∈ Ω : ∃kn →∞ tal que ω ∈ Bkn= ω ∈ Ω : |k ∈ N : ω ∈ Bn| <∞
lım infn→∞
Bn = ω ∈ Ω : ∃n ∈ N ∀k ≥ n tal que ω ∈ Bk
= ω ∈ Ω : |k ∈ N : ω /∈ Bn| <∞
|A| = Cardinal de A
Observaciones Por la ley de Morgan:(lım supn→∞
Bn
)c= lım inf
n→∞Bcn(
lım infn→∞
Bn
)c= lım sup
n→∞Bcn
Propiedad Sea Ω 6= ∅ un espacio. Sean β, β′ σ-algebras. Entonces β ∩ β′ es σ-algebra. Luego,para i = 1, ..., n:
n⋂i=1
Bi es σ-algebra.
4 INDICE GENERAL
Demostracion
0. β ∩ β′ ⊆ P(Ω)
1. ∅,Ω ∈ β; ∅,Ω ∈ β′ ⇒ ∅,Ω ∈ β ∩ β′
2. B ∈ β ∩ β′ ⇒ Bc ∈ β ∩ β′
3. (Bn : n ∈ N) ⊆ β ∩ β′ ⇒⋃n∈N
Bn ∈ β ∩ β′
2 y 3 son porque β y β’ son σ-algebras.
Propiedad Sean Ω, Λ 6= ∅ espacios. Si βλ es σ-algebra en Ω ∀λ ∈ Λ, entonces:⋂λ∈Λ
βλ es σ-algebra.
Nota ⋂λ∈Λ
βλ = B ∈ P(Ω) : B ∈ βλ ∀λ ∈ Λ
Demostracion
0. βλ ⊆ P(Ω) ∀λ ∈ Λ⇒⋂λ∈Λ
βλ ⊆ P(Ω)
1. ∅,Ω ∈ βλ ∀λ ∈ Λ⇒ ∅,Ω ∈⋂λ∈Λ
βλ
2. B ∈⋂λ∈Λ
βλ ⇔ B ∈ βλ ∀λ ∈ Λ⇒ Bc ∈ βλ ∀λ ∈ Λ⇔ Bc ∈⋂λ∈Λ
βλ
3. (Bn : n ∈ N) ⊆⋂λ∈Λ
βλ ⇔ (Bn : n ∈ N) ⊆ βλ ∀λ ∈ Λ
⇒⋃n∈N
Bn ∈ βλ ∀λ ∈ Λ⇔⋃n∈N
Bn ∈⋂λ∈Λ
βλ
Clase 02 - 14/03/2013
Sea Ω 6= ∅. Notemos que siempre podemos definir en el las σ-algebras:
a) N = ∅,Ω σ-algebra trivial
b) P(Ω) σ-algebra discreta
Demostracion: Ambos cumplen trivialmente con 0, 1 y 2. Veamos 3:
a) Sea (Bn : n ∈ N). Si Bn = ∅ ∀n ∈ N⇒⋃n∈N
Bn = ∅ ∈ N
Si ∃n ∈ N tal que Bn = Ω⇒⋃n∈N
Bn = Ω ∈ N
Como esos son los unicos casos Posibles, entonces es verdad
b) (Bn : n ∈ N) ⊆ P(Ω)⇒⋃n∈N
Bn ∈ P(Ω)
Nota N ⊂ P(Ω), excepto cuando Ω = α, en cuyo caso N = P(Ω) = ∅, α
Proposicion Sea Ω 6= ∅ y sea Γ ⊆ P(Ω). Entonces, ∃! σ-algebra que notaremos σ(Γ) y quellamaremos σ-algebra generada por Γ, que verifica las siguientes propiedades:
a) σ(Γ) es σ-algebra.
b) Γ ⊆ σ(Γ)
c) Si Γ ⊆ β y β es σ-algebra, entonces σ(Γ) ⊆ β
Nota σ(Γ) es la σ-algebra mas pequena que contiene a Γ.
Demostracion Definamos Λ = β : β es σ-algebra y Γ ⊆ β. Se tiene P(Ω) ⊆ Λ, luegoΛ 6= ∅. Por propiedad anterior, ⋂
β∈Λ
β es σ-algebra
Como Γ ⊆ β ∀β ∈ Λ⇒ Γ ⊆⋂β∈Λ
β
Por ultimo, si Γ ⊆ β′ y β′ es σ-algebra, entonces β′ ∈ Λ. Luego⋂β∈Λ
β ⊆ β′
5
6 INDICE GENERAL
Hemos probado que σ(Γ) =⋂β∈Λ
β verifica (a, b, c). Ademas, es la unica σ-algebra que lo hace,
pues si β′ tambien lo verificase, deduciriamos de (c) que β′ ⊆ σ(Γ) y que σ(Γ) ⊆ β′, concluyendoque β′ = σ(Γ).
Nota Si Ω es numerable (finito o de cardinalidad de N), entonces siempre consideraremosen Ω la σ-algebra discreta P(Ω).
Observemos que en este caso Ω numerable se tiene
P(Ω) = σ(Γ), con Γ = ω : ω ∈ Ω
En efecto, si B ∈ P(Ω), entonces:
B =⋃ω∈Bw, union numerable de conjuntos en Γ
Luego B ∈ σ(Γ), de donde P(Ω) ⊆ σ(Γ)
Nota Sea Ω 6= ∅, Γ = ω : ω ∈ Ω la familia de singletons. Entonces:
σ(Γ) = B ⊆ Ω : B es numerable o Bc es numerable DEMOSTRARLO
Definicion σ-algebra de Borel:En Ω = R, la σ-algebra de Borel se define por β(R) = σ(Γ), con Γ = (−∞, a] : a ∈ R
Propiedad ∀a, b ∈ R, con a ≤ b se tiene que:
(−∞, a] [a, b](−∞, a) (a, b][a,∞) [a, b)(a,∞) (a, b)
a
cualquier union o interseccion
numerable, complemento odiferencia de estos conjuntos
∈ β(R)
Demostracion Caso por caso
1) (−∞, a) =⋃n∈N
(−∞, a− 1
n
)Como
(−∞, a− 1
n
)∈ Γ, ∀n ∈ N, deducimos
⋃n∈N
(−∞, a− 1
n
)∈ σ(Γ) = β(R)
2) [a,∞) = (−∞, a)c. Como (−∞, a) ∈ β(R), se deduce que (−∞, a)c ∈ β(R)3) [a, b) = (−∞, b) ∩ [a,∞). Como ambos estan en β(R), entonces [a, b) ∈ β(R)4) a = [a, a] ∈ β(R)
Nota B ∈ β(R) se llamara BorelianoAdemas, β(R) ⊂ P(R) (∃A ⊆ R tal que A /∈ β(R))
Definicion Analogamente, se tiene en Ω = Rn la σ-algebra de Borel, definida β(Rn) = σ(Γ),
con σ(Γ) = n∏i=1
(−∞, ai) : ai, . . . , an ∈ R
INDICE GENERAL 7
Nota A los B ⊆ Rn tal que B ∈ β(Rn) se les llama Borelianos.
Nota
n∏i=1
|ai, bi| ∩Rn ∈ β(Rn), ∀ai, bi tal que −∞ ≤ ai ≤ bi ≤ ∞.
Definicion Diremos que (Bn : n ∈ N) es familia disjunta si Bi ∩Bj = ∅ ∀i 6= j, con i, j ∈ N
Definicion Sea (Ω, β) espacio medible. P es una medida de probabilidad en (Ω, β) si verifica:
a) P es funcion P : β → [0, 1]B → P(B)
b) P(Ω) = 1
c) ∀(Bn : n ∈ N) ⊆ β familia disjunta en β se tiene que P
(·⋃n∈N
Bn
)=∑n∈N
P(Bn)
A esta ultima propiedad se le llama σ-aditividad.
Propiedad Sea P medida de probabilidad. Entonces P(∅) = 0.
Demostracion Tomemos Bn = ∅ ∀n ∈ N. Entonces (Bn : n ∈ N) ⊆ β son disjuntos.
Luego, por σ-aditividad P
(·⋃n∈N
Bn
)=∑n∈N
P(Bn).
Como ·⋃n∈N
Bn = ∅, entonces P(∅) =∑n∈N
P(∅).
Luego, P(∅) =∞ o P(∅) = 0. Y como P ∈ [0, 1], entonces P(∅) = 0.
8 INDICE GENERAL
Clase 03 - 19/03/2013
Una medida µ en (Ω, β) verifica:
(0) µ : β → R+ ∪ ∞(1) µ(∅) = 0
(2) µ es σ-aditiva
Se dira medida finita si µ(B) 6=∞, ∀B ∈ βSe tiene que si µ es medida, entonces es una medida de probabilidad si y solo si µ(Ω) = 1.
Por otra parte, si µ es medida finita y µ(Ω) 6= 0, entonces P(B) =µ(B)
µ(Ω), B ∈ β es medida
de probabilidad.
Definicion ∃! medida λ en (R, β(R)) llamada medida de Lebesgue que verifica:
λ((a, b]) = b− a, ∀a ≤ b en R
Se tiene λ(R) =∞, λ(a) = 0, ∀a ∈ R
Definicion ∃! medida λn en (Rn, β(Rn)) llamada medida de Lebesgue que verifica:
λn(
n∏i=1
(ai, bi)) =
n∏i=1
(bi − ai)
Se tiene λn(Rn) =∞, λn(x) = 0, ∀x ∈ Rn
Propiedades Sea (Ω, β,P)) espacio de probabilidad. P es una medidad de probabilidad en(Ω, β). Entonces:
a) P es aditiva, es decir, si B1, . . . , Bn ∈ β son disjuntos, se tiene
P
(·n⋃i=1
Bi
)=
n∑i=1
P(Bi)
b) Si A,B ∈ β, A ⊆ B, entonces P(B \A) = P(B)− P(A)
c) Si A,B ∈ β, A ⊆ B, entonces P(A) ≤ P(B)
d) ∀B ∈ β, P(Bc) = 1− P(B)
e) P(A ∪B) = P(A) + P(B)− P(A ∩B)
9
10 INDICE GENERAL
Nota Las propiedades a), b), c) y e) son comunes a todas las medidas.
Demostracion
a) Tomemos Bi = ∅ ∀i > n. Luego, (Bi : i ∈ N) ⊆ β son disjuntos, y por σ-aditividad:
P
(·n⋃i=1
Bi
)= P
(·⋃i∈N
Bi
)=∑i∈N
P(Bi)
P(∅)=0︷︸︸︷=
n∑i=1
P(Bi)
b) A ⊆ B ⇒ A∧B \A = B ∩Ac, son conjuntos disjuntos y verifican B = A ·∪ (B \A). Luegopor a) deducimos P(B) = P(A) + P(B \A)
c) Como P(B \A) ≥ 0, por b) deducimos P(A) ≤ P(B)d) Resulta de tomar B ⊆ Ω, luego por b), y ya que Bc = Ω \B:
P(Ω \B) = P(Ω)− P(B) = 1− P(B)
e) A ∪B = A ∩B ·∪B \A ·∪A \B = A ∩B ·∪ (B \A ∩B) ·∪ (A \A ∩B). Luego:
P(A ∪B)a)= P(A ∩B) + P(B \A ∩B) + P(A \A ∩B)
b)= P(A ∩B) + P(B)− P(A ∩B) + P(A)− P(A ∩B)
= P(A) + P(B)− P(A ∩B)
Formula de Inclusion-Exclusion Sea B1, . . . , Bn ∈ β. Entonces:
P
(n⋃i=1
Bi
)=∑
J⊆1,...,nJ 6=∅
(−1)|J|+1 P
(⋂i∈J
Bi
)=
n∑k=1
(−1)k+1
∑1≤i1<...<ik≤n
P
(k⋂i=1
Bi
)Primero suma todos las probabilidades de conjuntos, luego le resta las intersecciones dobles,
despues le suma las intersecciones triples, le resta las cuadruples y ası.Para el caso n = 2 obtenemos e). Para el caso n = 3 obtenemos:
P(A ∪B ∪ C) = P(A) + P(B) + P(C)− P(A ∩B)− P(A ∩ C)− P(B ∩ C) + P(A ∩B ∩ C)
Demostracion Por induccion, en auxiliar.
Propiedades Sea (Bn : n ∈ N) ⊆ β. Entonces:
(a) Si Bn ⊆ Bn+1 ∀n ∈ N (Se escribeBn y se diceBn creciente), se tiene
P
(⋃n∈N
Bn
)= lımn→∞
P(Bn) (Continua Monotona Creciente)
(b) Si Bn+1 ⊆ Bn ∀n ∈ N (Se escribeBn y se diceBn decreciente), se tiene
P
(⋂n∈N
Bn
)= lımn→∞
P(Bn) (Continua Monotona Decreciente)
(c) P es sub-σ-aditiva. Es decir, P
(⋃n∈N
Bn
)≤∑n∈N
P(Bn)
INDICE GENERAL 11
Demostracion
(a) Definamos (An : n ∈ N) por A1 = B1;An+1 = Bn+1 \Bn, ∀n ∈ N. Se tiene
(An : n ∈ N) ⊆ β, ademas los An son disjuntos [probarlo] y se verifica que:
(∗) An ⊆ Bn ∀n ∈ N⇒ ·⋃n∈N
An ⊆⋃n∈N
Bn
(∗∗) Bn = ·n⋃i=1
Ai ∀n ∈ N⇒⋃n∈N
Bn ⊆ ·⋃n∈N
An
(∗) + (∗∗) =⇒ ·⋃n∈N
An =⋃n∈N
Bn. Luego:
P
(⋃n∈N
Bn
)= P
(·⋃n∈N
An
)=∑n∈N
P(An) = lımn→∞
(n∑i=1
P(Ai)
)
= lımn→∞
P
(·n⋃i=1
Ai
)= lımn→∞
P(Bn)
(b) Se deduce de (a) y Morgan. En efecto, Bn⇒ Bcn . Luego, por (a):
P
(⋃n∈N
Bcn
)= lımn→∞
(P(Bcn)) = lımn→∞
(1− P(Bn)). Ademas:
P
((⋂n∈N
Bn
)c)= 1− P
(⋂n∈N
Bn
), Luego
1− P
(⋂n∈N
Bn
)=︸︷︷︸
Morgan
lımn→∞
(1− P(Bn))⇒ P
(⋂n∈N
Bn
)= lımn→∞
(P(Bn))
(c) Definamos (An : n ∈ N) por A1 = B1;An+1 = Bn+1 \
(n⋃i=1
Bi
)∀n ∈ N
Se tiene (An : n ∈ N) ⊆ β, son disjuntos y verifican:
An ⊆ Bn ∧Bn = ·n⋃i=1
Ai, ∀n ∈ N. Luego, ·⋃n∈N
An =⋃n∈N
Bn y deducimos
P
(⋃n∈N
Bn
)= P
(·⋃n∈N
An
)=∑n∈N
P(An)
Por * y porque P es creciente︷︸︸︷≤∑n∈N
P(Bn)
Nota (c) implica la sub-aditividad:∀B1, . . . , Bn ∈ β, y tomando Bi = ∅, ∀i > n, tenemos
P
(n⋃i=1
)≤
n∑i=1
P(Bn)
12 INDICE GENERAL
Corolario Sea (Bn : n ∈ N) ⊆ β
(a) Si P(Bn) = 0 ∀n ∈ N, entonces P
(⋃n∈N
Bn
)= 0
(b) Si P(Bn) = 1 ∀n ∈ N, entonces P
(⋂n∈N
Bn
)= 1
Demostracion Se demuestran:(a) por sub-σ-aditividad.(b) por (a) y Morgan.
Clase 04 - 21/03/2013
Definicion Si lım infn→∞
Bn = lım supn→∞
Bn, se dice que ∃ lımn→∞
Bn = lım supn→∞
Bn
Si Bn, se tiene que lımn→∞
Bn =⋃n∈N
Bn
Si Bn, se tiene que lımn→∞
Bn =⋂n∈N
Bn
Propiedad Las ultimas propiedades (a) y (b), se pueden enunciar como:
Sea (Bn : n ∈ N) ⊆ β. Si Bn o Bn, entonces:
P(
lımn→∞
Bn
)= lımn→∞
P(Bn)
Definicion y Propiedad Sea (Ω, β) un espacio medible. Sea Ω0 ∈ β, Ω0 6= ∅ (en particularΩ0 ⊆ Ω). Se tiene:
β |Ω0= B ∈ β : B ∈ Ω0(∗)= B ∩ Ω0 : B ∈ β
(**)β |Ω0 es σ-algebra (en Ω0) y se llama σ-algebra inducida (o restringida) en Ω0. La pareja(Ω0, β |Ω0) es espacio medible. Ademas, β |Ω0⊆ β.
Demostracion (*) es trivial
(**) (1) ∅,Ω0 ∈ β |Ω0evidentemente.
(2) B ∈ β |Ω0⇒ Ω0 \B = Ω0 ∩Bc ∈ nβ |Ω0
(3) (Bn : n ∈ N) ⊆ β |Ω0⇒⋃n∈N
Bn ∈ β |Ω0
Probabilidad Condicional
Sea (Ω, β,P) un espacio de probabilidades, que vamos a usar de aquı en adelante.
Definicion Sean A,B ∈ β, con P(B) > 0. Definimos:
P(A|B) =P(A ∩B)
P(B)y lo llamamos probabilidad de A condicional a B.
13
14 INDICE GENERAL
Propiedades Obvias Sea P(B) > 0. Se tiene:
(a) P(A|B) = P(A ∩B|B)
(b) P(A ∩B) = P(A|B) · P(B)
(c) Si P(A) > 0⇒ P(A|B) · P(B) = P(B|A) · P(A)⇒ P(A|B) = P(B|A) · P(B)
P(A)
Propiedad Sea P(B) > 0. Entonces P( · |B) : β |B → [0, 1]A → P(A|B)
es una medida de probabilidad
en (B, β |B), es decir, (B, β |B ,P( · |B)) es espacio de probabilidad.
Demostracion
(a) P(∅|B) =P(∅ ∩B)
P(B)= 0
(b) P(B|B) =P(B ∩B)
P(B)= 1
(c) Nos basta demostrar que ∀(Bn : n ∈ N) ⊆ β se cumple P
( ⋃n∈N
An
∣∣∣∣∣B)
=∑n∈N
P(An|B)
(pues β |B⊆ β). En efecto:
P
( ⋃n∈N
An
∣∣∣∣∣B)
=1
P(B)· P
(⋃n∈N
An ∩B
)=
1
P(B)·∑n∈N
P(An ∩B) =∑n∈N
P(An|B)
Propiedades Sea P(B) > 0:
(a) P(B|B) = 1(b) P(∅|B) = 0(c) P(A4B) = 0⇒ P(A|B) = 1(d) P(A4Bc) = 1⇒ P(A|B) = 0(e) P(Ω|B) = 1(f) P(A) = 1⇒ P(A|B) = 1(g) P(A) = 0⇒ P(A|B) = 0(h) P(B) = 1⇒ P(A|B) = P(A), ∀A ∈ β
Demostracion PROPUESTOS. Puede ser util, para (c), (d), (f) y (g), probar:
Sea (Ω, β,P). Entonces, ∀A ∈ β, se tiene: ∀C ∈ β, P(A4C) = 0⇒ P(C) = P(A)
Formula de Bayes
Sea I un conjunto numerable (finito o no). Sea (Ai : i ∈ I) ⊆ β particion medible de Ω, esdecir:
(0) (Ai : i ∈ I) ⊆ β(p1) (Ai : i ∈ I) disjuntos
(p2) Ω = ·⋃i∈I
Ai
INDICE GENERAL 15
Luego, intersectando, ∀B ∈ β : B = ·⋃i∈I
(B∩Ai), de donde P(B) =∑i∈IP(B∩Ai). Si asumimos
P(Ai) > 0 ∀i ∈ I, tenemos que P(B) =∑i∈IP(B|Ai) · P(Ai). Si P(B) > 0, verificamos, ∀j ∈ I:
P(Aj |B) =P(B|Aj) · P(Aj)∑
i∈IP(B|Ai) · P(Ai)
Conocida como la formula de Bayes
Nota Lo anterior tambien es valido si (Ai : i ∈ I) es una P-particion medible, es decir:(0) (Ai : i ∈ I) ⊆ β(p′1) P(Ai ∩Aj) = 0, ∀i 6= j
(p′2) P
(Ω \
⋃i∈I
Ai
)= 0
Proposicion ∀B1, . . . , Bn ⊆ β, con P(Bi) > 0 ∀i = 1, . . . , n, se tiene que:
P
(n⋂i=1
Bi
)=
n∏i=1
P
Bi∣∣∣∣∣∣i−1⋂j=1
Bj
= P(Bn|Bn−1 ∩ . . . ∩B1) · . . . · P(B2|B1) · P(B1)
Demostracion
P(B1 ∩ . . . ∩Bn) = P(Bn|B1 ∩ . . . ∩Bn−1) · P(Bn−1 ∩ . . . ∩B1)
= P(Bn|B1 ∩ . . . ∩Bn−1) · P(Bn−1|B1 ∩ . . . ∩Bn−2) · P(Bn−2 ∩ . . . ∩B1)
=...
= P(Bn|B1 ∩ . . . ∩Bn−1) · . . . · P(B2|B1) · P(B1)
Nota En la primera igualdad, cuando i = 1,
i−1⋂j=1
Bj = Ω, por lo que P
B1
∣∣∣∣∣∣0⋂j=1
Bj
=
P(B1|Ω) = P(B1)
16 INDICE GENERAL
Clase 05 - 26/03/2013
Independencia
Definicion A,B ∈ β se dicen (P-)independientes (notado ⊥⊥)si P(A ∩B) = P(A) · P(B)
Propiedades
(a) P(A) = 0 o 1⇒ A es independiente en todo B ∈ β(b) Si P(A),P(B) > 0, entonces A⊥⊥B ⇔ P(A|B) = P(A)⇔ P(B|A) = P(B)(c) Si P(A),P(B) ∈ (0, 1), entonces, A ∩B = ∅ ⇒ A⊥⊥B(d) A⊥⊥A⇔ P(A) = 0 o 1
Demostracion
(a) Si P(A) = 0⇒ P(A ∩B) = 0⇒ A⊥⊥BSi P(A) = 1⇒ P(B) = P(B ∩A) + P(B ∩Ac) = P(B ∩A)⇒ A⊥⊥B
(b) Por definicion(c) P(A ∩B) = 0 6= P(A) · P(B)(d) P(A) = P(A ∩A) = P(A)2 ⇒ P(A) = 0 ∨ P(A) = 1
Proposicion A⊥⊥B ⇒ A⊥⊥BcAc⊥⊥BcAc⊥⊥Bc
Demostracion Basta probar A⊥⊥B ⇒ A⊥⊥Bc. En efecto:
P(A ∩Bc) = P(A \A ∩B) = P(A)− P(A ∩B) = P(A)− P(A) · P(B)= P(A)(1− P(B)) = P(A) · P(Bc)
Definicion Sea n ≥ 2. Sean B1, . . . , Bn ∈ β. B1, . . . , Bn se dicen independientes si:
P
(n⋂i=1
Ai
)=
n∏i=1
P(Ai), ∀Ai = Bi o Ai = Bci , i = 1, . . . , n
Proposicion Sean B1, . . . , Bn ∈ β. Se tiene:
(a) B1, . . . , Bn son independientes sı y solo sı ∀J ⊆ 1, . . . , n P
(⋂i∈J
Bi
)=∏i∈JP(Bi)
(b) Si B1, . . . , Bn son ⊥⊥, entonces Bi1 , . . . , B1k son independientes, ∀ 1 ≤ i1 < . . . < ik ≤ n
17
18 INDICE GENERAL
Demostracion ...
Definicion (Bn : n ∈ N) ⊆ β es una familia de eventos independientes si ∀J finito, J ⊆ Nse tiene (Bi : i ∈ J) independiente. Se cumple (Bn : n ∈ N) ⊆ β es familia independiente si∀n ∈ N, B1, . . . , Bn independiente.
Observacion Sea (Ω, β,P) espacio de probabilidad. Sean a1, a2 ⊆ β σ-algebras incluidas enβ (se llaman sub-σ-algebras). Ellas se dicen independientes sı y solo sı ∀A1 ∈ a1, ∀A2 ∈ a2, setiene P(A1 ∩A2) = P(A1) · P(A2)
Se tiene que A,B ∈ β son independientes sı y solo sı σ(A) y σ(B) son independientes, dondeσ(A) y σ(B) son las σ-algebras generadas por A y B respectivamente. En efecto es cierto, yaque σ(A) = ∅, A,Ac,Ω y σ(B) = ∅, B,Bc,Ω.
Caso Discreto Combinatorio
Si Ω es numerable (finito o infinito), lo dotamos de la σ-lgebra β = P(Ω). En este caso, una me-dida de probabilidad en (Ω, β) esta determinada por una funcion, llamada densidad de probabili-
dad discreta p : Ω → R+
ω → p(ω)que verifica:
(i) p(ω) ≥ 0 ∀ω ∈ Ω
(ii)∑ω∈Ω
p(ω) = 1
Nota En particular p(ω) ∈ [0, 1] ∀ω ∈ Ω
En efecto, si P es una medida de probabilidad en (Ω, β), entonces p(ω) = P(ω), ∀ω ∈ Ω
verifica (i) y (ii), ya que
1 = P(Ω) = P
(·⋃ω∈Ω
ω
)=∑ω∈Ω
P(ω)
Recıprocamente, si p verifica (i) y (ii) entonces P : β → [0, 1] definida por
P(B) =∑ω∈B
p(ω), ∀B ∈ β = P(Ω)
tambien lo cumple. Observemos que P(ω) = p(ω). Ademas, P ası definido es una funcion de
β → [0, 1], pues 0 ≤ P(B) ≤∑ω∈Ω
p(ω) = 1. Por otra parte, P(Ω) = 1, y ademas si (Bn : n ∈ N) ⊆
P(Ω) disjuntos se verifica que
P
(·⋃n∈N
Bn
)=∑
ω∈ ·⋃n∈NBn
p(ω) =∑n∈N
( ∑ω∈Bn
p(ω)
)=∑n∈N
P(Bn)
por lo que la σ-aditividad se cumple.
INDICE GENERAL 19
Caso Ω finitoPor lo dicho, una medida de probabilidad en (Ω, β) esta dada por p : Ω→ R+.La medida de probabilidad llamada equiprobable en Ω es tal que
p(ω) =1
|Ω|, ∀ω ∈ Ω
Tambien se le llama uniforme (en Ω). Es la unica medida de probabilidad en (Ω, β) en que acada punto de Ω se le da el mismo peso.
En este caso se tiene la igualdad P(B) =∑ω∈B
p(ω) =|B||Ω|
, es decir, un caso equiprobable.
∀B ∈ Ω : P(B) =|B||Ω|
:Casos favorables
Casos posibles
20 INDICE GENERAL
Clase 06 - 28/03/2013
Combinatoria
Recordemos algunas igualdades de cardinalidad. Notaremos por In un conjunto de n ele-mentos, |In| = n. Para todo efecto de cardinalidad podemos suponer In = 1, . . . , n, (I0 = ∅,|I0| = 0)
Se tiene: ∣∣∣∣∣k∏l=1
Inl
∣∣∣∣∣ =
k∏l=1
|Inl | =k∏l=1
nl
Luego |Ikn| = nk. Esta igualdad se puede escribir como |F(Ik, In)| = nk, donde F(Ik, In) =f : Ik → In. En efecto F(Ik, In) → Ikn
f → (f(i) : i ∈ Ik)es una biyeccion.
Sea I(Ik, In) = f : Ik → In, f inyectiva. Se tiene I(Ik, In) 6= ∅ solo en el caso k ≤ n.
Supongamos k ≤ n. Se tiene
|I(Ik, In)| = n!
(n− k)!= n(n− 1) · · · (n− k + 1)
I(Ik, In) esta en biyeccion con (x1, . . . , xk) ∈ Ikn : xi 6= xj ,∀i 6= j
Demostracion I(Ik, In) →k−1∏l=0
In−l
f → (f(1), . . . , f(k))
Si f es inyectiva, f(1) ∈ In, f(2) ∈ In \ f1, . . . , f(k) ∈ In \ f(1), . . . , f(k − 1). Luego
|I(Ik, In)| =
∣∣∣∣∣k−1∏l=0
In−l
∣∣∣∣∣ =
k−1∏l=0
(n− l) = n(n− 1) · · · (n− k + 1)
En particular, para k = n, I(Ik, In) = Per(In), conjunto de biyecciones de In → In cuyos
elementos particion se llaman permutaciones de In. Se cumple que |Per(In)| = n!
Sea k ≤ n. Consideremos Pk(n) = B : B ⊆ In, |B| = k, subconjuntos de In con k elementos.Se tiene:
|Pk(n)| =(n
k
)=
n!
(n− k)! k!, ∀k ≤ n
21
22 INDICE GENERAL
Demostracion En I(Ik, In) definamos la relacion de equivalencia:
f ≡ g ⇔ f(i) : i ∈ Ik = g(i) : i ∈ Ik⇔ f(Ik) = g(Ik) : los conjuntos imagen son los mismos
Sea I(Ik, In)/ ≡ el conjunto de clases de equivalencia. Se tiene
i : Pk(n) → I(Ik, In)/ ≡B → i(B) = f ∈ I(Ik, In) : f(Ik) = B
i esta bien definido, pues |B| = k = |f(Ik)| ∀f ∈ I(Ik, In). Ademas, i es claramente biyeccion.Luego:
|Pk(n)| = |I(Ik, In)/ ≡ | = n!
(n− k)! k!
pues ∀f ∈ I(Ik, In), |Clase de equivalencia de f | = |Per(f(1), . . . , f(k))| = k!
Definicion Sea In. Sean n1, . . . , nk ≥ 0 tal que
k∑i=1
= n. Definimos
Part(n1, . . . , nk) = (B1, . . . , Bk) : conjunto de particiones de In en k conjuntos
B1, . . . , Bk tal que |Bi| = n1, ∀i = 1, . . . , k
Notemos que si k = 2 se tiene n2 = n−n1, luego Part(n1, n−n1)→ Pn1(n) es una biyeccion,
pues todo B ∈ Pn1(n) determina unicamente (B,Bc) ∈ Part(n1, n− n1).Se tiene:
|Part(n1, . . . , nk)| =(n
n1
)(n− n1
n2
)· · ·
n−k−2∑l=1
nl
nk−1
n−
k−1∑l=1
nl
nk
=
k∏i=1
n−i−1∑l=1
nl
ni
=
k∏i=1
(n−
i−1∑l=1
nl
)!
ni!
(n−
i∑l=1
nl
)!
=
n!
n1! · · ·nk!
Hipergeometrica
Hay una urna con n bolas, de las cuales n1 son rojas y n2 = n− n1 son negras. Sea 1 ≤ k1 ≤k ≤ n. Se saca “al azar” k bolas. ¿Cual es la probabilidad de que se hayan sacado exactamentek1 bolas rojas? (Con k2 = k − k1 bolas negras)
Clase 07 - 02/04/2013
Revisitemos la Hipergeomeometrica.
In = J ·∪ Jc In = representa urna con n bolitasJ = conjunto de bolas rojas |J | = n1
Jc = conjunto de bolas negras |Jc| = n2 = n− n1
El experimento consiste en sacar “al azar” un conjunto de k bolitas. Nos preguntamos por laprobabilidad de que este conjunto contuviera k1 bolitas rojas y luego k2 = k− k1 bolitas negras,donde 0 ≤ k1 ≤ k ≤ n.
Tomemos:Ω = Pk(n) = ω : ω ⊆ In, |ω| = k
El conjunto “al azar”, es un conjunto ω ∈ Ω que se escoje de manera equiprobable en Ω, es
decir, P(ω) =1
|Ω|=
1
|Pk(n)|=
1(n
k
) , ∀ω ∈ Ω
Nos interesa calcular P(A), en donde:
A = ω ∈ Ω : |ω ∩ J | = k1, |ω ∩ Jc| = k − k1= ω ∈ Ω : |ω ∩ J | = k1 Ya que |ω| = k, ∀ω ∈ Ω
Con lo que P(A) =∑ω∈A
P(ω) =|A||Ω|
=|A|(n
k
)Ademas |A| : A → Pk1(n1)× P(k2)(n2)
ω → ω ∩ J × ω ∩ Jcque es claramente un biyeccion, por lo que concluimos que:
P(Ak) =
(n
k1
)(n
k2
)(n
k
) =
(n1
k1
)(n− n1
k − k2
)(n
k
)Que es tambien:
P(Ak) =
(k
k1
)(n− kn− k1
)(n
n1
)En donde In = J ∪ Jc; Ω = Pk(n) = ω ⊆ In : |ω| = k; Ak = ω ∈ Ω : |ω ∩ J | = k es
cambiada a In = K ∪Kc; Ω = Pn1(n) = ω ⊆ In : |ω| = n1; Ak1 = ω ∈ Ω : |ω ∩K| = k
23
24 INDICE GENERAL
Generalizacion de la Hipergeometrica
Sea una urna In con n bolas, In esta particionado en bolas de r colores distintos.
In = ·r⋃l=1
Jl, Jl =bolas de color l. Notamos que Jl = nl, luego n =
r∑l=1
nl
Se saca “al azar” un conjunto de k bolas. Cual es la probabilidad de que obtenga k1 bolas de
J1, ..., kr bolas de Jr? Notar que k =
r∑l=1
kl
Ω = Pk(n) = ω : ω ⊆ In, |ω| = k; P(ω) =1
|Ω|=
1(n
k
)Akl = ω ∈ Ω : |ω ∩ Jl| = kl, ∀l = 1, . . . , rSe tiene que Ak1...kr → Pk1(J1)× · · · × Pkr (Jr)
ω → (ω ∩ J1, . . . , ω ∩ Jr)es biyeccion, luego:
|Ak1,...,kr | =(n1
k1
)· · ·(nrkr
)=
r∏l=1
(nlkl
)
Luego, la probabilidad buscada es: P(Ak1,...,kr ) =
r∏l=1
(nlkl
)(n
k
) Notemos que si n = 2 es igual a
lo que habiamos hecho antes.
Observemos que lo hecho anteriormente, es decir, sacar el conjunto ω ∈ Ω = Pk(n) demanera equiprobable, es enteramente equivalente a: sacar una bola “al azar” de In, llamada v1,sacar una segunda bola “al azar” de In \ v1 y ası hasta sacar una k-esima vola “al azar” deIn \ v1, . . . , vk−1. El conjunto ω = v1, . . . , vk ası escogido, es un conjunto de k elementoselegidos “al azar”, es decir, de manera equiprobable en Pk(n). Este experimento es sacar lasbolas de In sin repeticion y sin reposicion.
En el caso con reposicion: Se sacan k bolas de manera independiente desde In, cada una deellas escogida de manera equiprobable.
Sea x1, . . . , xk las bolas ası escogidas de In. Es decir, xp ∈ In. En este caso |x1, . . . , xk| ≤ k,
pues puede haber repeticion. Ası, se tiene Ω = Ikn y P(x1, . . . , xk) =1
|In|k=
1
nk
Clase 08 - 04/04/2013
Variables Aleatorias
Sea (Ω, β,P) espacio de probabilidad que consideraremos fijo.
Definicion La funcion X : Ω → R se dice variable aleatoria si ∀C ∈ β(R), X−1(C) ∈ β, esdecir, ω ∈ Ω : X(ω) ∈ C ∈ β, ∀C ∈ β(R)
Es facil mostrar que X : Ω→ R es variable aleatoria si y solo si ∀a ∈ R, X−1((−∞, a]) ∈ β,es decir, si y solo si ∀a ∈ R, ω ∈ Ω : X(ω) ≤ a ∈ β.
Propiedades
(i) La funcion constante Xa : Ω→ R definida por Xa(ω) = a, ∀ω ∈ Ω es v. a.
(ii) Sea B ∈ β, la funcion indicadora 1B : Ω → R
ω → 1B(ω) =
1 si ω ∈ B0 si ω /∈ B
es v. a.
Mas aun, para B ⊆ Ω se tiene que 1B es una v. a. si y solo si B ⊆ β(iii) Si X es v. a. y α ∈ R, entonces αX es v. a.
(iv) Si X,Y son v. a., entonces X + Y es v.a.
(v) Si X,Y son v. a., entonces X · Y es v. a.
(vi) Si X,Y son v. a., Y 6= 0, entoncesX
Yes v. a.
(vii) Si X,Y son v. a., entonces max(X,Y ) y mın(X,Y ) son v. a.
(viii) Si (Xn : n ∈ N) es familia de v. a. tal que ∃ lımn→∞
Xn, entonces lımn→∞
Xn es v. a.
Nota Por (iii) y (iv), el conjunto de v. a. es espacio vectorial; por (iii), (iv) y (v) el conjuntode v. a. es un algebra conmutativa; por (vii) el conjunto de v. a. es un reticulado (cerrado parael maximo y el mınimo); por (i), (iii), (iv) y (v) el conjunto de v. a. es un algebra conmutativaunitaria, pues la funcion constante 1 : Ω → R
ω → 1(ω) = 1es el neutro de la multiplicacion.
Demostracion Solo la de (ii) y la de (i) por mientras:(ii) Sea B ∈ β y 1B : Ω → R
ω → 1B(ω) =
1 si ω ∈ B0 si ω /∈ B
25
26 INDICE GENERAL
Para probar que 1B es v. a. debemos probar que ∀C ∈ β(R), 1−1B (C) ∈ β. Se tiene que
1−1B (C) = ω ∈ Ω : 1B(Ω) ∈ β, asi que, por casos:
Caso 1: Si 0, 1 ⊆ C por definicion 1−1B (C) = Ω ∈ β
Caso 2: Si 1 ∈ C, 0 /∈ C por definicion 1−1B (C) = B ∈ β
Caso 3: Si 0 ∈ C, 1 /∈ C por definicion 1−1B (C) = Bc ∈ β
Caso 4: Si 0, 1 /∈ C por definicion 1−1B (C) = ∅ ∈ β
Como son los unicos casos posibles, concluimos que 1−1B (C) ∈ β, ∀C ∈ β(R), luego 1B es v. a.
La segunda parte de (ii), resulta de lo hecho previamente (la parte “si”) y de (*?) tomandoC = 1 ∈ P(R), para la parte solo si.
(i) Notemos que si a = 1, X = 1Ω, luego ese caso se deduce de (ii).En general la funcion Xa = a es v. a. pues:
X−1a (C) =
Ω si a ∈ C∅ si a /∈ C
Y como Ω, ∅ ∈ β, se deduce el resultado.
Clase 09 - 09/04/2013
Demostracion (Continuacion)
(iii) Sea X v. a. y α ∈ R. Digamos α 6= 0. Para C ∈ β(R) debemos mostrar que (αX)−1(C) ∈β. Se tiene (αX)−1(C) = ω ∈ Ω : αX(ω) ∈ C = ω ∈ Ω : X(ω) ∈ 1
αC = X−1(
1
αC), en donde
1
αC = y ∈ R : αy ∈ C ∈ β(R). Luego, como X es v. a., X−1(
1
αC) ∈ β.
(vi) Sean X,Y v. a. Por demostrar que Z = max(X,Y ) es v. a. Para esto, basta probar queZ−1((−∞, a]) ∈ β ∀a ∈ R
Z−1((−∞, a]) = ω ∈ Ω : Z(ω) ≤ a = ω ∈ Ω : max(X(ω), Y (ω)) ≤ a= ω ∈ Ω : X(ω) ≤ a ∧ Y (ω) ≤ a= ω ∈ Ω : X(ω) ≤ a ∩ ω ∈ Ω : Y (ω) ≤ a= X−1((−∞, a]) ∩ Y −1((−∞, a]) ∈ β
Corolario
a) Sean X,Y v. a. Entonces,X
Y
∣∣∣∣Y 6=0
es v. a.
b) Sea (Xn : n ∈ N) sucesion de v. a. Entonces ( lımn→∞
Xn)∣∣∣∃ lım
n→∞Xn
es v. a.
Observacion Y (ω) = 0⇒ X
Y= 0 por definicion.∣∣∣
∃ lımn→∞
Xnes 1 si ∃ lım
n→∞Xn y 0 en caso contrario.
Notacion Escribiremos X ∈ C = ω ∈ Ω : X(ω) ∈ C. Ası mismo, escribiremos su notacionanaloga X1 ∈ C1, . . . , Xn ∈ Cn = ω ∈ Ω : X1(ω) ∈ C1, . . . , Xn(ω) ∈ Cn
Tambien ∃ lımn→∞
Xn = ω ∈ Ω : ∃ lımn→∞
Xn
Observacion Lo que hemos hecho hasta ahora en R tambien se puede hacer en R = R ∪−∞,∞, llamado R extendido.
β(R) = σ(J), con J = [−∞, a], [a,∞], (−∞, a], [a,∞)Todas las propiedades son analogas cuando estan bien definidas:
Definidas:
−∞ · 0 = 0
∞ · 0 = 0No definidas:
(±)∞±∞(±)∞ · (±)∞
27
28 INDICE GENERAL
Propiedad Sean (Xn : n ≥ 1) v. a. tal que ∀n ∈ N Xn : Ω→ R (o R). Entonces
lım infn→∞
Xn y lım infn→∞
Xn son v. a., lım inf y lım sup van de Ω a R
Nota lım supn→∞
Xn(ω)| lım infn→∞
Xn(ω) = sup.|ınf. de la acumulacion de Xn(ω) : n ∈ N.
Definicion h : R → R o R → R se dice boreliano si ∀C ∈ β(R) : h−1(C) ∈ β(R), conh−1(C) = x ∈ R : h(x) ∈ C. Se prueba que esta propiedad es equivalente a:
∀a ∈ R, h−1((−∞, a]) = x ∈ R : h(x) ≤ a ∈ β(R)
Nota Todas las funciones continuas o con un conjunto aislado numerable de discontinuida-des son funciones borelianas.
Si C ∈ β(R), la indicadora 1C es boreliana.
El conjunto de funciones borelianas tiene las propiedades ya descritas de v. a. (espaciovectorial, reticulado, algebra unitaria).
Propiedad Sea X : ω → R y h : R→ R boreliano, entonces hX : Ω→ R es v. a.
Demostracion Sea C ∈ R. Entonces (hX)−1(C) = X−1(h−1(C)) ∈ β
Definicion y Propiedad Sea X : Ω → R una v. a., entonces PX : β(R) → [0, 1]C → P(X−1(C))
es
una medida de probabilidad en (R, β(R)) que se llama probabilidad inducida por X o ley de X.
Demostracion
(0) PX esta bien definida en β(R) pues X es v. a. Luego ∀C ∈ β(R), X−1(C) ∈ β, luego
∃P(X−1(C)) ∈ [0, 1]
(1) PX(R) = P(X−1(C)) = P(Ω) = 1
(2) Sean (Cn : n ∈ N) ⊆ β(R) familia disjunta de borelianos. Entonces:
PX
(·⋃n∈N
Cn
)= P(X−1
(·⋃n∈N
Cn
)) = P
(·⋃n∈N
(X−1Cn)
)=∑n∈N
P(X−1(Cn)) =∑n∈N
PX(Cn)
Observacion Notemos que para Xi : Ω→ R v. a. ∀i = 1, . . . , n se tiene:
∀C1, . . . , Cn ∈ β(R), ω ∈ Ω : Xi(ω) ∈ Ci, ∀i = 1, . . . , n ∈ β
Xi ∈ Ci ∀i = 1, . . . , n =
n⋂i=1
Xi ∈ Ci =
n⋂i=1
X−1(Ci) ∈ β
INDICE GENERAL 29
Definicion Las v. a. X1, . . . , Xn se dicen (P-)independientes si:
P(Xi ∈ Ci,∀i = 1, . . . , n) =
n∏i=1
P(Xi ∈ Ci), ∀C1, . . . , Cn ∈ β(R)
Esto es: P
(n⋂i=1
Xi ∈ Ci
)=
n∏i=1
P(Xi ∈ Ci)
=
n∏i=1
PXi(Ci)
Propiedad Para X v. a., σ(X) = X−1(C) : C ∈ β(R) es una σ-algebra contenida en β.Se tiene que X1, . . . , Xn son independientes si y solo si las σ-algebras σ(X1), . . . , σ(Xn) sonindependientes entre si (en (Ω, β,P))
Demostracion Ejercicio.
30 INDICE GENERAL
Clase 10 - 16/04/2013
Variables Aleatorias Discretas
Definicion X : Ω → R v. a. se dice discreta si la imagen X(Ω) es un conjunto que notamosI = X(Ω), tal que I ⊆ R numerable. Equivalentemente lo podriamos definir como X : Ω→ I v.a. tal que I es conjunto numerable; esto ocurre si y solo si
X−1(a) = ω ∈ Ω : X(ω) = a ∈ β, ∀a ∈ IAdmitimos la generalizacion siguiente: X : Ω → R v. a. d. si ∃I ⊆ R numerable tal que
P(X ∈ I) = 1
Definicion Sea X : Ω→ I v. a. d. Definimos su funcion de densidad discreta por:
PX(a) = P(X = a), a ∈ ILa funcion de densidad se extiende a R si PX(x) = 0, x /∈ I.
Como P(X ∈ I) = 1, se tiene que:
• PX(a) ≥ 0 •∑a∈I
PX(a) = 1
Observacion Si Xi : Ω → Ii, i = 1, . . . , n son v. a. d., siempre podemos suponer Xi : Ω → I,
∀i = 1, . . . , n, tomando I =
n⋃i=1
Ii. Analogamente si Xi : Ω→ Ii es v. a. d para i ∈ N, lo podemos
hacer si tomamos I =⋃i∈N
Ii.
Propiedad Sean Xi : Ω → I, i = 1, . . . , n v. a. d., entonces ellas son independientes si y solosi
P
(n⋂i=1
Xi = ai
)=
n∏i=1
P(Xi = ai)
En efecto, esto implica
P
(n⋂i=1
Xi ⊆ Ci
)=
n∏i=1
P(Xi ⊆ Ci) ∀Ci ∈ I, i = 1, . . . , n
Y por otra parte esto implica que se cumple ∀Ci ∈ P(R), pues
P
(n⋂i=1
Xi ⊆ Ci
)= P
(n⋂i=1
Xi ⊆ (Ci ∩ I)
)ya que
P
(n⋂i=1
Xi ⊆ (Ci ∩ Ic)
)= 0
31
32 INDICE GENERAL
Clases de Variables Aleatorias Discretas
1ra Clase - Constante
Sea a0 ∈ R. Xa0 : Ω → R
ω → X(ω) = a0
es v. a. d. con I = a0. En este caso
PXa0 (a) = δa,a0 =
1 Si a = a0
0 Si a 6= a0
Se dice Xa0 v. a. constante a0.
2da Clase - Bernoulli(p)
Sea p ∈ [0, 1], X : Ω→ R es v. a. Bernoulli(p) si P(X ∈ 0, 1) = 1 tal que P(X = 0) = 1− pP(X = 1) = p
Nota Si p = 0 o p = 1, es igual a la v. a. constante X0 o X1 respectivamente.
Observacion Sean a, b ∈ R, a 6= b. Si P(Y = a) = 1− pP(Y = b) = p
, entoncesX =Y − ab− a
es Bernoulli(p).
Dicho de otro modo, si X es Bernoulli(p), entonces Y = a+ bX es tal que P(Y = a) = 1− pP(Y = b) = p
.
3ra Clase - Binomial(n, p)
Sea n ≥ 1, p ∈ [0, 1]. X : Ω→ R v. a. d. se dice Binomial(n, p) si P(X ∈ 0, . . . , n) = 1 y
PX(k) = P(X = k) =
(n
k
)pk(1− p)n−k, ∀k ∈ 0, . . . , n
Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos quen∑k=0
PX(k) =
n∑k=0
(n
k
)pk(1− p)n−k = (p+ (1− p))n = 1
Propiedades Sean X1, . . . , Xn v. a. Bernoulli(p) independientes. Entonces Y =
n∑i=0
Xi es
Binomial(n, p), es decir, P(Y = k) =
(n
k
)pk(1− p)n−k, ∀k = 0, . . . , n
Nota Binomial se puede ver como el numero k de caras que aparecen en n lanzamientos.
Demostracion
P(Y = k) = P
(n∑i=1
Xi = k
)= P(|i ∈ 1, . . . , n : Xi = 1| = k)
= P
( ⋃J⊆In|J|=k
i ∈ In : Xi = 1 = J
)=∑J⊆In|J|=k
P(Xi = 1,∀i ∈ J ;Xi = 0,∀i ∈ Jk)
=∑J⊆In|J|=k
(∏i∈JP(X = 1))(
∏i∈J0
P(X = 0)) =∑J⊆In|J|=k
p|J|(1− p)n−|J| =︸︷︷︸|J⊆In:|J|=k|=(nk)
(n
k
)pk(1− p)n−k
INDICE GENERAL 33
Relacion entre Bernoulli(p) y la Indicadora Sea X v. a. Bernoulli(p). Entonces, X(ω) ∈0, 1 ∀ω ∈ Ω, de donde X = 1B con B = ω ∈ Ω : X(ω) = 1. En efecto,
X(ω) = 1B(ω) =
1 Si ω ∈ B ⇔ X(ω) = 1
0 Si ω /∈ B ⇔ X(ω) = 0
Se tiene P(B) = p, pues P(B) = P(X = 1) = p⇒ X Bernoulli(p) es indicadora. Notemos queX = 1B = 1X=1
Observacion Si Xi v. a. Bernoulli(p) ∀i = 1, . . . , n, ellas son independientes si y solo si(Bi : i = 1, . . . , n) son independientes, ya que Bi = 1Xi=1, ∀i = 1, . . . , n
Definicion La sucesion de v. a. Xm : Ω→ R, n ∈ N son independientes si y solo si ∀N ∈ N :X1, . . . , XN son independientes. Es decir, una familia de v. a. es independiente si y solo si todasubfamilia finita de ellas es independiente.
4ta Clase - Geometrica(p)
Sea p ∈ [0, 1]. La v. a. Z : Ω→ R se dice Geometrica(p) si
P(Z ∈ N) = 1 y PZ(k) = P(Z = k) = (1− p)k−1p, ∀k ∈ N
Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos que∑k∈N
PZ(k) =∑k≥1
(1− p)k−1p = p1
1− (1− p)= 1
Propiedad Sea (Xi : i = 1 ∈ N) una familia independiente de v. a. Bernoulli(p). Entonces,Y = ınf(i ∈ N : Xi = 1) es Geometrica(p), es decir: P(Y = k) = (1− p)k−1p, ∀k ∈ N
Demostracion
P(Y = k) = P(ınf(i ∈ N : Xi = 1) = k) = P(Xi = 0 ∀i < k;Xk = 1)
=
k−1∏i=1
P(Xi = 0)P(Xk = 1) = (1− p)k−1p
Nota P(Y = N) = 1, pues Y ∈ N ∩ ∞, pero P(Y =∞) = 0. Observemos que Y =∞⇔Xi = 0 ∀i ∈ N, por lo que P(Y =∞) = P(Xi = 0 ∀i ∈ N) =
∏i∈N
(1− p) = 0
Observacion Si Z Geometrica(p)⇒ W = Z − 1 es Geometrica(p) en 0, 1, . . .. Se tiene que
P(W ∈ 0, 1, . . .) = 1
PW (k) = P(W = k) = P(Z − 1 = k) = P(Z = k + 1) = (1− p)(k+1)−1p = (1− p)kp, ∀k ≥ 0
5ta Clase - Poisson(λ)
Sea λ > 0 ∈ R. La v. a. X se dice Poisson(λ) si
P(X ∈ Z+) = 1 y PX(k) = P(X = k) =λk
k!e−λ, ∀k ≤ 0
34 INDICE GENERAL
Comprobemos Se tiene
P(X ∈ Z+) =∑k∈Z+
PX(k) =∑k∈Z+
λk
k!e−λ = eλe−λ = 1
Propiedad Sea X Poisson(λ), entonces si Yn es Binomial(n, p(n)) y np(n) →︸︷︷︸n→∞
λ
P(X = k) = lımx→∞
P(Yn = k)
Se puede interpretar como el numero de llamadas recibidas en una unidad de tiempo con unaescala λ
Clase 11 - 18/04/2013
Funcion de Distribucion
Tratemos el caso general de v. a. de X → R. Vamos a describir PX (que la llamaremos leyde X) como PX(C) = P(X−1 ∈ C) = P(X ∈ C) Cuando C = (−∞,∞] se tiene PX((−∞, x]) =P(X ≤ x), x ∈ R Vemos que esto ultimo caracteriza la ley de X. A continuacion definiremos yconsideraremos generales:
Definicion F : R→ [0, 1] se dice funcion de distribucion si verifica:(0) F : R→ [0, 1] es funcion(1) F creciente, es decir, x ≤ y ⇒ F (x) ≤ F (y)(2) F continua a la derecha, es decir, F (x+) = F (x), donde F (x+) = lım
h→0+F (x+h) (3) F (0) = 1
(4) F (∞) = 0, donde F (∞) = lımx→∞
F (x)
Observaciones• Siempre existe F (x−) = lım
h→0+F (x− h) ∀x ∈ R
• x es punto de continuidad si F (x−) = F (x+) = F (x)• x es punto de discontinuidad si F (x−) 6= F (x+) (Obviamente se tiene F (x−) ≤ F (x+))
Notamos DF = x : F (x−) 6= F (x+) el conjunto de discontinuidades de F
Teoremaa) Si P es una medida de probabilidad en (R, β(R)), entonces F (x) := P((−∞, x]), x ∈ R defineuna funcion de distribucion.b) Si F : R→ [0, 1] es funcion de distribucion, entonces ∃!P medida de probabilidad en (R, β(R))tal que F (x) = P((−∞, x])
Demostracion Solo demostraremos a).Sea P medida de probabilidad en (R, β(R)). Debemos demostrar que F (x) = P((−∞, x]), x ∈
R verifica (0) a (4) para ser distribucion.(0) Como (−∞, x] ∈ β(R), P((−∞, x]) esta bien definido y como P es medida de probabilidadP((−∞, x]) ∈ [0, 1](1) x ≤ y ⇒ (−∞, x] ⊆ (−∞, y) ⇒︸︷︷︸
P creciente
P((−∞, x]) ≤ P((−∞, y])⇔ F (x) ≤ F (y)
(2) F (x+) = F (x) equivale a: ∀hn > 0, hn → 0 se tiene lımn→∞
F (X + hn) = F (x). Entonces, sea
hn que cumple con lo pedido. Se tiene (−∞, x+ hn] decreciente y (−∞, x] =⋂n∈N
(−∞, x+ hn].
Por continuidad monotona de P: P((−∞, x]) = F (x) = lımn→∞
P(−∞, x+ hn] = F (x+)
35
36 INDICE GENERAL
(3) Si xn →∞, se tiene (−∞, xn) creciente y R =⋃n∈N
(−∞, xn). Por continuidad monotona
P(R) = P
(⋃n∈N
(−∞, xn)
)⇒ lım
n→∞F (x) = 1
(4) Si xn → −∞, (−∞, xn] es decreciente y ∅ =⋂n∈N
(−∞, xn], por lo que
P(∅) = lımn→∞
P((−∞, xn])⇒ lımn→∞
F (xn) = 0
Propiedades Para F (x) = P((−∞, x]), se tiene:(a) P((−∞, x)) = F (x−), ∀x ∈ R(b) P(x) = F (x)− F (x−)(c) P((a, b]) = F (b)− F (a)(d) P((a, b)) = F (b−)− F (a)(e) P([a, b]) = F (b)− F (a−)(f) P([a, b)) = F (b−)− F (a−)(g) P([a,∞)) = 1− F (a−)(h) P((a,∞)) = 1− F (a)
Demostracion Con (a) se obtienen todas las demas, asi que demostramos solo esa:(a) Consideramos hn > 0, hn → 0. Se tiene F (x−) = lım
n→∞F (x− hn) = lım
n→∞P((−∞, x− hn))
Clase 12 - 23/04/2013
Nota Observemos que si F (a−) = 0, entonces P([a,∞)) = 1, luego P(C) = P(C∩[a,∞)), ∀C ∈β(R). Si la (funcion de) distribucion F tiene densidad f , entonces f(z) = 0, ∀z ∈ (−∞, a) y
luego P(C) =
∫C∩[a,∞)
f(z) dz
Observacion Sea F (funcion de) distribucion con (funcion de) densidad f . Notemos que fpuede ser alterado o redefinido en un conjunto finito o numerable de punto sin que F o P seanmodificados. Mas generalmente, f puede modificarse en un conjunto A tal que λ(A) = 0 sin queF o P sean modificados. Aqui λ : β(R)→ [0,∞) es la medida de Lebesgue.
Variables Aleatorias Absolutamente Continuas
Sea X : Ω→ R v. a. La medida de probabilidad PX : β(R)→ [0, 1] llamada ley de X carac-terizada por la funcion de distribucion de X= FX : R → [0, 1]
x → FX(x) = PX((−∞, x)) = P(X ≤ x)
Se tiene DFX = x ∈ R : FX(x) 6= FX(x−)= x ∈ R : PX(x) ≥ 0 = x ∈ R : P(X = x) ≥ 0
conjunto numerable.
Si PX(DFX ) = 1 se tiene que X es v. a. discreta, pues toma valores en el conjunto numerableDFX .
Si PX(DFX ) = 0, se tiene P(X = x) = 0 ∀x ∈ R, o equivalentemente FX(x) = FX(x−) ∀x ∈R, es decir FX es continua.
Definicion X es v. a. absolutamente continua si su funcion de distribucion FX es absoluta-
mente continua, es decir si: ∃fX(x) =d(FX(x))
dx, ∀x ∈ R llamada densidad de X y que verifica:
fX ≥ 0 y
∞∫−∞
fX(z) dz = 1. Luego, ∀C ∈ β(R) se tiene PX(C) = P(X ∈ C) =
∫C
fX(z) dz
Por lo dicho anteriormente, fX esta definida salvo en un conjunto que tenga medida deLebesgue 0.
Escribiremos X ∼ FX o X ∼ fX para decir respectivamente que X tiene distribucion FX odensidad fX .
37
38 INDICE GENERAL
Familias de Variables Aleatorias Absolutamente Continuas
1ra Familia - Uniforme
Definicion Sea a < b. La variable aleatoria X se dice uniforme [a, b] si es abs. continua con den-
sidad fX(z) =1
b− a·1[a,b](z) y funcion de distribucion asociada FX(z) =
0 si z < a
z − ab− a
si z ∈ [a, b]
1 si z > b
Ademas PX(C) = PX(C ∩ [a, b]) =1
b− a= λ(C ∩ [a, b]), λ medida de Lebesgue.
Para definir la uniforme podemos utilizar 1|a,b| en vez de 1[a,b], pues fX se puede modificaren un numero finito de puntos.
Propiedad Sea U v. a. uniforme [0, 1). Entonces, la v. a. X = a+ (b− a)U es uniforme [a, b].En efecto:
FX(x) = P(X ≤ x) = P(a+ (b− a)U ≤ x) = P(U ≤ x− a
b− a
)=
0 si x < a
x− ab− a
si x ∈ [a, b]
1 si x > b
2da Familia - Exponencial (λ)
Sea λ > 0. La v. a. X se dice Exponencial (λ) si es abs. continua con densidad fX(z) =
λe−λz · 1(0,∞)(z). A λ se le llama tasa. Es claro que
∞∫−∞
fX(z) dz =
∞∫0
fX(z) dz = −e−λz∣∣∣∞0
= 1.
Su funcion de distribucion es FX(x) =
1− e−λx si x > 0
0 si x ≤ 0. Luego, FX(x) = 1 − FX(x) =
P(X > x) = e−λx, ∀x > 0
Nota Si Y ∼Geometrica(p), P(Y > n) =∑k>n
(1 − p)k−1 = (1 − p)n = e−θn, con θ =
− log(1− p) si p ∈ (0, 1)Luego, la Exponencial es la version continua de la Geometrica.
3ra Familia - Gamma (α)
Sea α > 0. Recordemos que Γ(α) =
∞∫0
e−xxa−1 dx esta en (0,∞) y se verifica Γ(n) = (n−1)!,
para n ∈ N.
La v. a. X se dice Gamma(α) si es abs. continua con densidad fX(z) =e−zzα−1
Γ(α)· 1(0,∞)(z)
Nota General Si g(x) ≥ 0 y 0 <
∞∫−∞
g(x) dx <∞, entonces f(z) =g(z)
∞∫−∞
g(x) dx
es funcion de
densidad (es decir, es la normalizacion de g)
INDICE GENERAL 39
4ta Familia - Normal o Gaussiana
Sea µ ∈ R y σ > 0. La v. a. X se dice N(µ, σ2) si es absolutamente continua con densidad
fX(z) =1
σ√
2πe
12 ·(
z−µσ )
2
, z ∈ R. Es claro que fX ≥ 0. Probemos que
∞∫−∞
fX(z) dz = 1.
Demostracion Tomando y =z − µσ
debemos mostrar que
1√2π
∞∫−∞
e−y2
2 dy = 1, equivalente a
∞∫0
e−y2
2 dy =
√π
2
Haciendo el cambio x =y√2
queda
∞∫0
e−x2
dx =
√π
2equivalente a
∞∫0
∞∫0
e−(x2+y2) dx dy =π
4
Luego, haciendo el cambio a coordenadas polares:
∞∫0
π2∫
0
r e−r2
dθ dr =π
4
Que es facil ver que se cumple.
Propiedad Sea X ∼ N(0, 1). Entonces Y = µ+ σX ∼ N(µ, σ2).
Demostracion Sea Y = µ+ σX. Se tiene
FY (z) = P(Y ≤ y) = P(µ+ σX ≤ y) = P(X ≤ y − µσ
) = FX(y − µσ
)
Luego Y es abs. continua con densidad
fY (z) =d(FY (z))
dz(y) =
d(FX(y−µσ ))
dy=
1
σfX(
y − µσ
) =1
σ√
2πe
12 ·(
z−µσ )
2
∼ N(µ, σ2)
40 INDICE GENERAL
Clase 13 - 25/04/2013
Independencia
Propiedad Si X1, . . . , Xn son v. a. independientes y hi : R→ R, ∀i = 1, . . . , n son funcionesborelianas, entonces las v. a. h1(X1), . . . , hn(Xn) son independientes.
Demostracion hi(Xi)Ci = Xi ∈ h−1i (Ci), Ci ∈ β(R) por ser boreliano.
De donde
P(hi(Xi) ∈ Ci, ∀i = 1, . . . , n) = P(Xi ∈ h−1i (Ci), ∀i = 1, . . . , n)
=
n∏i=1
P(Xi ∈ h−1i (Ci)) =
n∏i=1
P(hi(Xi) ∈ Ci)
Propiedad Es facil ver que las v. a. son independientes si y solo si
P(Xi ≤ ai, ∀i = 1, . . . , n) =
n∏i=1
P(Xi ≤ ai), ∀a1, . . . , an ∈ R
=
n∏i=1
FXi(ai)
Nota En lo que sigue notaremos: FX1,...,Xn : R → [0, 1](a1, . . . , an) → FX1,...,Xn(a1, . . . , an)
que llama-
remos funcion de distribucion conjunta de las v. a. X1, . . . , Xn. Ella verifica:
(0) FX1,...,Xn es funcion
(1) FX1,...,Xn es creciente: xi ≤ yi ∀i = 1, . . . , n⇒ FX1,...,Xn(x1, . . . , xn) ≤ FX1,...,Xn(y1, . . . , yn)
(2) FX1,...,Xn es continua por la derecha: FX1,...,Xn((x1, . . . , xn)+)
= lımh1→0+
. . . lımhn→0+
FX1,...,Xn(x1 + h1, . . . , xn + hn) = FX1,...,Xn(x1, . . . , xn)
(3) FX1,...,Xn(∞, . . . ,∞) = lımx1→∞
. . . lımxn→∞
FX1,...,Xn(x1, . . . , xn) = 1
(4) FX1,...,Xn(a1, . . . ,−∞︸︷︷︸Posicion i
, . . . , an) = lımxi→−∞
FX1,...,Xn(x1, . . . , xi, . . . , xn) = 0
Como en el caso real, se tiene que FX1,...,Xn : Rn → [0, 1] caracteriza la medida de probabi-lidad PX1,...,Xn : β(Rn) → [0, 1]
D → PX1,...,Xn(D) = P((X1, . . . , Xn) ∈ D)= P(ω ∈ Ω : (X1(ω), . . . , Xn(ω)) ∈ D)
∀D ∈ β(Rn),
que es llamada ley conjunta de X1, . . . , Xn
41
42 INDICE GENERAL
Con esta notacion, las v. a. X1, . . . , Xn son independientes si y solo si
FX1,...,Xn(x1, . . . , xn) =
n∏i=1
FXi(xi)
Nota (X1, . . . , Xn) : Ω → Rn
ω → (X1(ω), . . . , Xn(ω))se llama vector aleatorio; con ley PX1,...,Xn en
(Rn, β(Rn)) y distribucion FX1,...,Xn
Definicion El vector aleatorio (X1, . . . , Xn) se dice abs. continuo si ∃fX1,...,Xn : Rn → R+ que
verifique: FX1,...,Xn(x1, . . . , xn) =
x1∫−∞
· · ·xn∫−∞
fX1,...,Xn(z1, . . . , zn) dz1 . . . dzn, ∀(x1, . . . , xn) ∈ Rn
A fX1,...,Xn se le llama (funcion de) densidad conjunta de (X1, . . . , XN ). NecesariamentefX1,...,Xn verifica:
(0) fX1,...,Xn : Rn → R
(1) fX1,...,Xn ≥ 0
(2)
∞∫−∞
· · ·∞∫−∞
fX1,...,Xn(z1, . . . , zn) dz1 . . . dzn = 1
Ademas se cumple:d(FX1,...,Xn)
dx1, . . . , dxn(x1, . . . , xn) = fX1,...,Xn(x1, . . . , xn), ∀(x1, . . . , xn) ∈ Rn
Nota En este contexto fXi se llama la densidad marginal de fX1,...,Xn (Lo mismo con FXi , quese llama la distribucion marginal de FX1,...,Xn)
Propiedad Las v. a. X1, . . . , Xn absolutamente continuas (conjuntamente) son independientessi y solo si:
fX1,...,Xn(x1, . . . , xn) =
n∏i=1
fXi(xi)
Es decir, la densidad conjunta en el producto de las densidades marginales.
Demostracion Tenemos que las v. a. X1, . . . , Xn son independientes si y solo si
FX1,...,Xn(x1, . . . , xn) =
n∏i=1
FXi(xi)
Aplicandodn
dx1, . . . , dxnse obtiene lo buscado. Reciprocamente, si aplicamos
x1∫−∞
· · ·xn∫−∞
a fX1,...,Xn
obtenemos lo aquı presentado.
Nota Todo lo relativo a densidad conjunta es salvo conjunto de medida de Lebesgue 0 en Rn
Observemos que si X es abs. continua, entonces Y = X2 es abs. continua, pero el vectoraleatorio (X,X2) no es abs. continuo.
Definicion La sucesion de v. a. X1, . . . , Xn son independientes si y solo si ∀n ≥ 1; X1, . . . , Xn
son independientes.
INDICE GENERAL 43
Cambio de Variables
Lo haremos solo en caso de una v. a. (mas adelante veremos el caso del vector aleatorio).
Teorema Sea X : Ω → R v. a. abs. continua con densidad fX y sea h : R → R con derivadacontinua. Entonces:
Y = hX : Ω → R
ω → Y (ω) = hX(ω) = h(X(ω))
Es v. a. abs. continua cuya funcion de densidad fY verifica:
fY (y) =∑
X(y)∈h−1(y)
1
|h′(X(y))|· fX(X(y)), ∀y ∈ R
Luego, si h es inyectiva (como h : R→ R esto significa h creciente o decreciente), lo anteriores:
fY (y) =1
|h′(h−1(y))|· fX(h−1(y)), ∀y ∈ R
Nota Sea S = h(X(Ω)) ⊆ R, el rango de hX. Entonces, las 2 anteriores ecuaciones sedeben leer ∀y ∈ S en vez de ∀y ∈ R
Por otra parte, se necesita que z ∈ S : h′(z) = 0 sea un conjunto de puntos aislados. DondeS abierto, X(Ω) ⊆ S, (h : S → S).
Demostracion Lo hacemos considerando todas las regularidades que necesitamos. Sea hcreciente con h′ > 0.
FY (y) = P(Y ≤ y) = P(hX ≤ y)
=︸︷︷︸h creciente
P(X ≤ h−1(y)) = FX(h−1(y))
Aplicandod
dyqueda:
fY (y) =d(FY (y))
dy=d(FX(h−1(y)))
dy= fX(h−1(y))
1
h′(h−1(y))
Sea h decreciente con h′ < 0.
FY (y) = P(Y ≤ y) = P(hX ≤ y)
=︸︷︷︸h decreciente
P(X ≥ h−1(y)) = P(X > h−1(y)) = 1− FX(h−1(y))
Aplicandod
dyqueda:
fY (y) = −fX(h−1(y))1
h′(h−1(y))= fX(h−1(y))
1
|h′(h−1(y))|
Veamos el caso no inyectivo: Por simpleza solo veremos el caso h′ 6= 0, excepto por el puntoh′(x0) = 0, en que la situacion es un “maximo” o “minimo”.
44 INDICE GENERAL
Sea y ∈ [0, h(x0)], h−1(y) = X−(y), X+(y):
FY (y) = P(Y ≤ y) = P(ω : h(X(ω)) ≤ y)
= P(ω : X(ω) ≤ X−(y) ∨X(ω) ≥ X+(y))
=︸︷︷︸disjuntos
P(X ≤ X−(y)) + P(X ≥ X+(y))︸ ︷︷ ︸abs. continua
= FX(X−(y)) + (1− FX(X+(y)))
Luego:
fY (y) = fX(X−(y)) · d(X−(y))
dy− fX(X+(y)) · d(X+(y))
dy
= fX(X−(y)) · 1
|h′(X−(y))|+ fX(X+(y)) · 1
|h′(X+(y))|
=∑
X(y)∈h−1(y)
fX(X(y)) · 1
|h′(X(y))|
Clase 14 - 29/04/2013
Si X v. a. abs. continua, entonces PX(x ∈ R : fX(x) > 0) = 1, pues
∫x:fX(x)=0
fX(x)dx = 0. Luego,
en caso abs. continuo, podemos suponer que:
X(Ω) = x ∈ R : fX(x) > 0
Ası pues, sea D abierto, x : fX(x) > 0 ⊆ D, que lo llamaremos S. Para h : D → R conderivada continua y tal que x ∈ D : h′(x) = 0 es un conjunto finito de puntos aislados. Setendra que la v. a. Y = hX verifica el teorema ya enunciado.
Y es absolutamente continua con densidad fY tal que FY (y) = 0 si y /∈ h(D). Para y ∈ h(D):
fY (y) =∑
X(y)∈h−1(y)
fX(X(y)) · 1
|h′(X(y))|
Si h es inyectivo, para y ∈ h(D):
fY (y) = fX(h−1(y))1
|h′(h−1(y))|
Ejemplo Sea X v. a. abs. continua con fX(x) > 0 ∀x ∈ R. Sea h : R→ R con h(x) = x2.Y = hX = X2(y). Por lo anterior D = R = x : fX(x) > 0; h(D) = R+. Y tiene densidadfY (y) = 0 si y /∈ R+. Ademas, podemos considerar fY (0) = 0
Para y > 0 se tiene:
FY (y) = P(Y ≤ y) = P(X2 ≤ y) = P(−√y ≤ X ≤ √y)
= P(X ≤ √y)− P(X ≤ −√y) = FX(√y)− FX(−√y)
Luego,d
dy:
fY (y) = fX(√y)
1
2√y
+ fX(−√y)1
2√y
h−1(y) = −√y,√y, fY (y) =∑
X(y)∈h−1(y)
fX(X(y)) · 1
|h′(X(y))|
Complemento a la densidad del vector aleatorio.
45
46 INDICE GENERAL
Proposicion Sean X1, ldots,Xn v. a. Supongamos que el vector aleatorio (X1, . . . , Xn) tienedensidad conjunta fX1,...,Xn , es decir:
P(ω : (X1(ω), . . . , Xn(ω) ∈ C) =
∫C
fX1,...,Xn(x1, . . . , xn)dX1, . . . , dXn ∀C ∈ β(Rn)
Entonces cada v.a X1 es abs. continua con densidad fXi dada por
fXi(xi) =
+∞∫−∞
dz1 · · ·+∞∫−∞
dznfX1,...,Xn(z1, . . . , xi︸︷︷︸posicion i
, . . . , zn), Sin tomar en cuenta
∫zi
Demostracion
FXi = P(Xi ≤ xi) = P(X1 ≤ ∞, . . . , Xi ≤ xi, . . . , Xn ≤ Xn)
= P((X1, . . . , Xn) ∈ (−∞, xi)×Rn−1)
=
+∞∫−∞
dz1 · · ·xi∫−∞
dzi · · ·+∞∫−∞
dznfX1,...,Xn(z1, . . . , zn)
d
dx
x∫−∞
h(t)dt = h(x)⇒
fXi(xi) =dFXi(xi)
dxi=
+∞∫−∞
dz1 · · ·+∞∫−∞
dznfX1,...,Xn(z1, . . . , xi, . . . , zn)
Esperanza
La esperanza es el valor medio o “esperado” de una v. a.
Definicion Sea X v. a. Entonces, cuando existe su esperanza es:
E(X) =
+∞∫−∞
x dFX(x)
Sobre la existencia: E(X) =
+0−∫−∞
x dFX(x)
︸ ︷︷ ︸≤0
+
+∞∫0−
x dFX(x)
︸ ︷︷ ︸≥0
• E(X) no existe si
0−∫−∞
x dFX(x) = −∞ y
∞∫0−
x dFX(x) =∞
• E(X) existe si
0−∫−∞
x dFX(x) > −∞ y/o
∞∫0−
x dFX(x) >∞ (el y implica que es finito)
Cada vez que escribamos E(X) supondremos que existe y es finita.
INDICE GENERAL 47
Propiedades
(a) Si Xa = a, v. a. cte.E(Xa) = a
(b) Si X = 1B con B ∈ β (funcin indicadora)E(1B) = P(B)
(c) X ≥ 0⇒ E(X) ≥ 0; X ≥ Y ⇒ E(X) ≥ E(Y )
(d) X,Y v. a. α, β ∈ R. Entonces: E(αX + βY ) = αE(X) + βE(Y ). (Lineal)
(e) Si X es discreta, es decir para cierto I numerable X =∑a∈I
a1X=a, entonces
E(X) =∑a∈I
aP(X = a) =∑a∈I
aPX(a)
(f) Si X es abs. continua con densidad fX : E(X) =
+∞∫−∞
x fX(x)dx
(g) Si h : R→ R Boreliano, entonces E(h(X)) =
+∞∫−∞
h(x) dFX(x), dFX(x)
(g’) E(X − E(X)) = 0
(h) Si X,Y son v. a. independientes, entonces E(XY ) = E(X)E(Y ). Aun mas, si
ϕ : R→ R y ψ : R→ R son borelianas, entonces ϕ(X), ψ(Y ) son independientes,
por lo que E(ϕ(X)ψ(Y )) = E(ϕ(X))E(ψ(Y ))
(i) Si h : R→ R es convexa, E(h(X)) ≥ h(E(X)). Si es concava, E(h(X)) ≤ h(E(X))
(j) Si Xn X puntualmente y monotonamente, entonces E(Xn) E(X).
Si Xn X puntualmente y monotonamente, entonces E(Xn) E(X)
Si Xn →︸︷︷︸n→∞
X puntualmente y se tiene |Xn| ≤ Y con E(Y ) <∞, entonces E(Xn) →︸︷︷︸n→∞
E(X)
48 INDICE GENERAL
Clase 15 - 02/05/2013
Demostracion Propiedades de la clase anterior
(a) Sea Xa = a v. a. cte. FXa(x) = P(Xa ≤ a) = P(a ≤ Xa)
= 1a =
1 Si x ≥ a0 Si x < a
= escalon de Heaviside
E(Xa) =
∞∫−∞
x dFXa(x) = a (FXa(a)− FXa(a−))︸ ︷︷ ︸=1
= a
(b) Sea B ∈ β, X = 1B FX(x) = P(ω : 1B(ω) ≤ x) =
0 Si x < 0
P(Bc) = 1− P(B) Si x ∈ [0, 1)
1 Si x ≥ 1
Entonces E(1B) =
+∞∫−∞
xdFX(x) = 0(1− P(B)) + 1(1− (1− P(B))) = P(B)
(e) X discreta a valores en I ⊆ R numerable. X =∑a∈I
P(X = a) Entonces
E(X) =
∞∫−∞
xdFX(x) =∑a∈I
a(FX(a)− FX(a−)) =∑a∈I
aP(X = a)
(h) Probemoslo solo para X = 1B y Y = 1D con B,D ∈ β. 1B y 1D independientes ⇔ B y Dindependientes.
E(1B1D) = E(1B∩D) = P(B ∩D) = P(B)P(D) = E(1B)E(1D)
Propiedades
(a) Si X1, . . . , Xn son v. a. y h : Rn → R funcion boreliana, entoncesh(X1(ω), . . . , Xn(ω) : Ω → R
ω → h(X1, . . . , Xn)es v. a. Se tiene
E(h(X1, . . . , Xn)) =
∫Rn
h(X1, . . . , Xn) dFX1,...,Xn(x1, . . . , xn)
Si los X1, . . . , Xn son independientes se tiene
E(h(X1, . . . , Xn)) =
∫Rn
h(X1, . . . , Xn) dFX1(x1) . . . dFXn(xn)
49
50 INDICE GENERAL
Y si ademas h(X1, . . . , Xn) =
n∏i=1
hi(xi) queda
E(h(X1, . . . , Xn)) =
∫Rn
n∏i=1
hi(xi) dFX1(x1) . . . dFXn(xn) =
n∏i=1
∫Rn
hi(xi) dFXi(xi)
(b) Se tiene h ≥ 0, E(X) = 0⇒ P(X = 0) = 1
Nota P(X = a) = 1 se dice X = a normalmente.
Demostracion Como X ≥ 0, si P(X = 0) < 1, ∃a > 0 tal que P(X ≥ a) > 0. Ademas,como X ≥ 0 se tiene X(ω) ≥ a · 1X≥a. Luego, E(X) ≥ E(a)E(1X≥a) = aP(X ≥ a) lo que esuna contradiccion.
Si X v. a. notamos µX = E(X). En general escribiremos mk = E(Xk) para k ≥ 1 y losllamamos momentos de orden k. Ası pues m1 = µX
Propiedades
• E(X2k) ≥ (E(X))2k, ∀k ≥ 1• Si X ≥ 0, entonces E(Xk) ≥ (E(X))k, ∀k ≥ 1Es decir, m2k ≥ m2k
1 y si X ≥ 0, mk ≥ mk1
Demostracion Por (i) y como g(x) = x2k es convexa para k ≥ 1 se deduce la primera. Lasegunda se deduce de g : R+ → R, g(x) = xk con k ≥ 1 es convexa y de X(Ω) = R+.
Varianza
Definicion Sea X v. a. Su varianza es
V ar(X) = E((X − µX)2) = E((X − E(X))2)
Propiedades Para X v. a. se verifica:
(1) V ar(X) ≥ 0(2) V ar(X) > 0⇔ P(X = µX) = 1⇔ X = a cte. con probabilidad 1.(3) Si α, β ∈ R, V ar(α+ βX) = β2V ar(X)(4) V ar(X) = E(X2)− (E(X))2
(5) La funcion desviacion cuadratica ϕ(C) = E((X − C)2) alcanza su minimo en C = µX yϕ(µX) = V ar(X)
(6) Si X,Y son independientes, entonces V ar(X+Y ) = V ar(X)+V ar(Y ). Mas generalmente, si
X1, . . . , Xn son v. a. independientes y a0, . . . , an ∈ R, se tiene V ar(a0+
n∑i=1
aixi) =
n∑i=1
a2iV ar(Xi)
Nota V ar(X) esta definida si E(X) es finita. V ar(X) es finita si E(X) y E(X2) son finitas.Para todo efecto consideraremos que V ar(X) existe y es finita.
INDICE GENERAL 51
Demostracion(1) (X − µX)2 ≥ 0⇒ V ar(X) = E((X − µX)2) ≥ 0
(2) Sea Y = (X − µX)2, se tiene Y ≥ 0. E(Y ) = V ar(X). Si V ar(X) = 0 se tiene E(Y ) = 0, yse concluye P(Y = 0) = 1, esto es P(X = µX) = 1. Ademas P(X = a) = 1 para cierto a ∈ R setiene E(X) = a, de donde P(X = µX) = 1 y V ar(X) = E((X − µX)2) = 0. Juntando todo estose tienen las equivalencias.
(3) Sea Y = α+ βX. Por linealidad E(Y ) = α+ βE(X), es decir, µY = α+ βE(X) = α+ βµX .Luego, V ar(α+ βX) = V ar(Y ) = E((α+ βX − α− βµX)2) = E(β2(X − µX)2) = β2V ar(X)
(4) V ar(X) = E((X − µX)2) = E(X2 − 2XµX + µ2X)
= E(X2)− 2E(X)µX + µ2X = E(X2)− µ2
X
(5) ϕ(C) = E((X −C)2) = E(X2 − 2CX +C2) = E(X2)− 2CµX +C2. Derivando con respectoa C, obtenemos C = µX . Volviendo a derivar con respecto a C obtenemos 2 y 2 > 0, luego enC = µX alcanza su mınimo y por definicion ϕ(µX) = V ar(X).
(6) Sean X,Y v. a. indep. Se tiene µx+y = µX + µY .
V ar(X + Y ) = E((X + Y − µX − µy)2) = E((X − µX)2 + 2(X − µX)(Y − µY ) + (Y − µY )2)= V ar(X) + 2E((X − µx)(Y − µY )) + V ar(Y )
.
Como X,Y indep., E(X−µx)E(Y −µY ) que es 0 por (g’). Luego, V ar(X+Y ) = V ar(X)+V ar(Y )
Covarianza
Definicion Si X,Y son v. a., su Covarianza es:
Cov(X,Y ) = E((X − µx)(Y − µY ))
Propiedades(1) V ar(X + Y ) = V ar(X) + 2Cov(X,Y ) + V ar(Y )(2) Cov(α+ βX, γ + δY ) = βδCov(X,Y )(3) Cov(X,X) = V ar(X)
Demostracion(1) Por lo hecho en (6)(2) Por un desarrollo analogo(3) Directa
Definicion• Una v. a. Z tal que E(Z) = 0 se dice centrada• Una v. a. Z tal que E(Z) = 0 y V ar(Z) = 1 se dice normalizada.
Propiedades• Sea X v. a. Si E(X) es finita, entonces Z = X − E(X) es centrada.
• Sea X v. a. Si E(X) es finita y 0 < V ar(X) <∞, entonces Z =X − E(X)√V ar(X)
es normalizada.
Nota V ar(X) > 0 quiere decir que X no es constante.
Demostracion Punto 2:
V ar
(X − E(X)√V ar(X)
)=︸︷︷︸(3)
V ar(X)
V ar(X)= 1
52 INDICE GENERAL
Nota σX =√V ar(X) se llama desviacion tıpica. Luego, si X no es constante
X − µXσX
es
normalizada.
Clase 16 - 07/05/2013
Sumas de Variables Aleatorias Independientes
Caso Discreto
Recordemos que si X toma valores en I ⊆ R numerable, colocabamos PX(a) = P(X = a), su
densidad discreta y se tenia∑a∈I
PX(a) = 1
Proposicion Sean X e Y v. a. independientes a valores en Z. Entonces X+Y es v. a. a valoresen Z con densidad discreta:
PX+Y (k) =∑l∈Z
PX(l)PY (k − l), ∀k ∈ Z, es decir PX+Y (k) = PX ∗ PY
Convolucion.
Demostracion PX+Y = P(X + Y = k)Probabilidades totales︷︸︸︷
=∑l∈Z
P(X + Y = l|X = l)
=∑l∈Z
P(Y = k − l|X = l) =∑l∈Z
P(Y = k − l)P(X = l)
=∑l∈Z
PY (k − l)PX(l)
Nota La convolucion p ∗ q(k) =∑l∈Z
p(l)q(k − l):
Es conmutativa: p ∗ q = q ∗ p
Es asociativa: p ∗ (q ∗ r) = (p ∗ q) ∗ r. Luego, se escribe p ∗ q ∗ r
δ0 dada por δ0(k) =
1 Si k = 0
2 Si k 6= 0es neutro de ∗: p ∗ δ0 = δ0 ∗ p = p, pues δ0 es la
densidad discreta de X = 0
Propiedad Si X1, . . . , Xn son v. a. ind. a valores en Z, entonces X1 + . . .+Xn es ind. a valoresen Z y:
PX1+...+Xn = PX1∗ · · · ∗ PXn
Demostracion Por induccion.
53
54 INDICE GENERAL
Corolario Sea X,Y v. a. indep. a valores en Z+. Entonces, X + Y es a valores en Z+ y setiene:
PX+Y (k) =
k∑l=0
PX(k − l)PY (k) = PX ∗ PK , ∀k ∈ Z+
PX+Y (k) = 0 si k < 0
Demostracion PY (l) = 0 si l < 0 y PX(k − l) = 0 si l > k, pues X,Y a valores en Z+
Una expresion analoga para X1, . . . , Xn a valores en Z+ es:
PX1,...,Xn(k) =
k∑l1=0
k−l1∑l2=0
· · ·k−
∑n−2i=1 li∑
ln−1
PX1(l1)PX2(l2) · · ·PXn(k −n−1∑i=0
li)
Caso Absolutamente Continuo
Sea X v. a. Se tiene:
dFX(x) = P(X ∈ (x, x+ dx])
Luego, si X v. a. abs. continua con densidad fX(x):
dFX(x) = fX(x)dx = P(X ∈ (x, x+ dx])
Sea (X,Y ) vector aleatorio abs. continuo con densidad f(X,Y )(x, y). Entonces:
f(X,Y )(x, y) dx dy = P(X ∈ (x, x+ dx], Y ∈ (y, y + dy])
= P((X,Y ) ∈ (x, x+ dx]× (y, y + dy])
Propiedad Sean X,Y v. a. abs. continuas e indep. Entonces, X +Y es v. a. abs. continua condensidad:
fX+Y (z) = fX(z) ∗ fY (z) =
∞∫−∞
fX(x)fy(z − x) dx
Si ademas X e Y toman valores en R+ (fX(u) = fY (u) = 0 cuando u < 0), entonces X + Ytoma valores en R+ y se tiene:
fX+Y (z) =
z∫0
fX(x)fy(z − x) dx
INDICE GENERAL 55
Demostracion
FX+Y (z) = P(X + Y ≤ z) =
∞∫−∞
P(X ∈ (x, x+ dx], X + Y ≤ z)
=
∞∫−∞
P(X ∈ (x, x+ dx], Y ≤ z − x)
=
∞∫−∞
P(X ∈ (x, x+ dx])P(Y ≤ z − x)
=
∞∫−∞
fX(x)FY (z − x)
Entonces, haciendod
dzobtenemos:
fX+Y (z) =
∞∫−∞
fX(x)fY (z − x) dx
Propiedad Si X1, . . . , Xn v. a. abs. continuas e indep., se tiene:
f∑ni=1Xi
= fX1 ∗ · · · ∗ fXn
Demostracion Induccion
Nota Si f, g, h densidades, entonces:
f ∗ g = g ∗ f , es conmutativa.
f ∗ (g ∗ h) = (f ∗ g) ∗ h, es asociativa.
δ0 = delta de Dirac es el neutro de ∗
Desigualdades - Tchevycheff
Propiedades
1. Si X v. a. ≥ 0, entonces, ∀ε > 0 X ≥ ε1x≥ε
2. Si X v. a. y µX = E(X) es finita, entonces ∀p > 0,∀ε > 0, |X − µX |p ≥ εp1|X−µX |≥ε
Demostracion Si X(ω) ≥ ε, la desigualdad es lo mismo, pues 1X≥ε = 1
1. Si X ∈ [0, ε), entonces queda X > 0.
2. Se aplica 1 a la v. a. Z = |X − µX |p y εp.
56 INDICE GENERAL
Desigualdad de Tchevycheff
Sea X v. a., ε > 0, entonces
1. P(|X| ≥ ε) ≤ E(|X|)ε
2. Si µX es finita, entonces: P(|X − µX | ≥ ε) ≤E(|X − µX |p)
ep, ∀p ≥ 1
3. P(X ≥ ε) ≤ e−εtP(etX), ∀t > 0
Demostracion Se tiene:
1. |X| ≥ ε1|X|≥ε. Luego, E(|X|) ≤ E(ε1|X|>ε) = εP(|X| ≥ ε)
2. Resulta de aplicar E a |X − µX |p ≥ εp1|X−µX |≥ε
3. Como t > 0, etX ≥ etε1X≥ε. Luego se aplica E
Clase 17 - 09/05/2013
Tipos de Convergencia
Primero veamos algunos tipos de convergencia. Sea (Ω, β,P) espacio de probabilidad y (Xn :n ∈ N) es sucesion de v. a. y X es v. a.
Definicion
(a) Xn →︸︷︷︸n→∞
X con probabilidad casi segura (Pcs) si P(ω ∈ Ω : Xn(ω)→ X(ω)) = 1
(b) Xn →︸︷︷︸n→∞
X en probabilidad si ∀ε > 0 : lımn→∞
P(ω ∈ Ω : |Xn(ω)−X(ω)| > ε) = 0
(c) XnLp→︸︷︷︸
n→∞
X en Lp(P) si para p ≥ 1, E(|Xn −X|p) →︸︷︷︸n→∞
0
Proposicion Se tiene:
(1) Xn →︸︷︷︸n→∞
X Pcs ⇒ Xn → X en probabilidad.
(2) XnLp→︸︷︷︸
n→∞
X ⇒ Xn → X en probabilidad.
Demostracion
(1) Para m,n ∈ N definimos:
C(m,n) = ω ∈ Ω : |Xn(ω)−X(ω) ≤ 1
m
en donde C(m+ 1, n) ⊆ C(m,n). Se tiene:
Xn(ω) →︸︷︷︸n→∞
X(ω)⇔ ∀m ∈ N ∃n ∈ N tal que ∀k ≥ n, ω ∈ C(m, k)
⇔ ω ∈⋂m∈N
⋃n∈N
⋂k≥n
C(m, k)
Luego, Xn →︸︷︷︸n→∞
X Pcs si y solo si P(⋂m∈N
⋃n∈N
⋂k≥n
C(m, k)) = 1
57
58 INDICE GENERAL
Se tiene que⋃n∈N
⋂k≥n
C(m, k) decrece con m, de donde:
Xn →︸︷︷︸n→∞
X Pcs si y solo si ∀m ∈ N P(⋃n∈N
⋂k≥n
C(m, k)) = 1
esto es si y solo si ∀m ∈ N P(⋂n∈N
(⋃k≥n
C(m, k)c)) = 0
Se tiene que⋃k≥n
C(m, k) decrece con n, de donde:
Xn →︸︷︷︸n→∞
X Pcs si y solo si ∀m ∈ N lımn→∞
P(⋃k≥n
C(m, k)c) = 0
Como C(m,n)c ⊆⋃k≥n
C(m, k)c, se tiene que lo anterior implica
∀m ∈ N, lımn→∞
P(C(m,n)c) = 0, esto es
∀m ∈ N, lımn→∞
P(|Xn −X| ≥1
m) = 0
que equivale a Xn →︸︷︷︸n→∞
X en probabilidad P
(2) Por Tchevycheff, ∀ε > 0 se tiene P(|Xn −X| ≥ ε) ≤E(|Xn −X|p)
εp
Nota Supongamos para p ≥ 1 fijo:
∀n ∈ N, E(|Xn|p) <∞, E(|X|p) <∞
Entonces:
1. Si XnLp→︸︷︷︸
n→∞
X, ∃ subsucesion nk∞ tal que Xn →︸︷︷︸n→∞
X con Pcs
2. Si Xn →︸︷︷︸n→∞
X con Pcs y suph≥1|Xn| ≤ Y , con E(|Y |p) <∞, entonces Xn
Lp→︸︷︷︸n→∞
X
Ejemplo Tomemos Ω = [0, 1], β([0, 1]) = B ∈ β(R) : tales que B ∈ [0, 1] y P = λ, medidade Lebesgue en ([0, 1], β([0, 1])), es decir, λ((a, b]) = b− a, ∀(a, b] ∈ [0, 1]
Todo n ∈ N lo representamos de manera unica como n = 2l + r, l ≥ 0, r ∈ 0, 1, . . . , 2l − 1,ya que N = ·
⋃l≥0
2l, . . . , 2l+1 − 1. Entonces: Xn = 1( r2l, r+1
2l)
Para ε > 0 se tiene
P(|Xn| > ε) = λ(|Xn| > ε) = λ
((r
2l,r + 1
2l
])=
1
2l→︸︷︷︸
n→∞
0
Luego Xn →︸︷︷︸n→∞
0 en probabilidad P, pero ω ∈ [0, 1] : Xn →︸︷︷︸n→∞
0 6= ∅. Luego, Xn 9 0 con Pcs
INDICE GENERAL 59
Teorema de los Grandes Numeros
Sea (XN : n ≥ 1) sucesion de v. a. indep. igualmente distribuidas. Asumimos que E(X1) esfinito. Entonces:
1
N
N∑n=1
Xn →︸︷︷︸N→∞
E(X1),Pcs
Es decir:
P(ω ∈ Ω : lımN→∞
1
N
N∑n=1
Xn(ω) = E(X1)) = 1
Que significa que el promedio empırico converge al teorico, y se le llama a menudo TeoremaFuerte de los Grandes Numeros.
Nota El Teorema Debil de los Grandes Numeros se refiere a:
1
N
N∑n=1
Xn →︸︷︷︸N→∞
E(X1), en probabilidad P
Nota Si Xn ∼Bernoulli(p), se tiene E(Xn) = p. Luego, en este caso el Teorema de los GrandesNumeros:
1
N
N∑n=1
Xn →︸︷︷︸N→∞
p, Pcs
(N∑n=1
Xn = |n ∈ 1, . . . , N : Xn − 1| ∼ Binomial(n, p)
)
Demostracion Solo probaremos el Teorema Debil. En caso
E(|Xn|2) <∞, ∀n E(|X|2) <∞
Por hipotesis E(X1) es finito. Probaremos bajo estas hipotesis la convergencia en L2, ya queprobamos que implica la convergencia en probabilidad.
Sea Sn =
N∑n=1
Xn. Se tiene:
V ar
(SnN
)=
1
N2V ar
(N∑n=1
Xn
)=︸︷︷︸
ind.
1
N2
N∑n=1
V ar(Xn) =︸︷︷︸= dist.
V ar(X1)
N
Por otra parte:
E(SnN
)= E(X1)
Luego:
V ar
(SnN
)= E
((SnN− E(X1)
)2)
=V ar(X1)
N
60 INDICE GENERAL
Luego:
SnN
L2
→︸︷︷︸N→∞
E(X1)
[pues
V ar(X1)
N→︸︷︷︸
N→∞
0
]Recordemos que por Tchevycheff:
P(∣∣∣∣SnN − E(X1)
∣∣∣∣ ≥ ε) ≤ V ar(SnN
)ε2
=V ar(X1)
ε2N→︸︷︷︸
N→∞
0
Que es la convergencia en probabilidad.
Clase 18 - 14/05/2013
Teorema de los Grandes Numeros en Lp
Sean (Xn : n ∈ N) v. a. ind. id. dist. tal que E(X1) finita. Supongamos que para p ≥ 1 fijo setiene: E(|X1|p) <∞. Entonces:
1
n
n∑i=1
XiLp→︸︷︷︸
n→∞
E(X1), i. e. E
(∣∣∣∣∣ 1nn∑i=1
Xi − E(X1)
∣∣∣∣∣p)→︸︷︷︸
n→∞
0
Nota1
n
n∑i=1
Xi − E(X1) =1
n
n∑i=1
(Xi − E(Xi)), pues E(Xi) = E(X1), ∀i ∈ N
Expansion Diadica y v. a. Bernoulli
(1
2
)Ah, sı, sı
Transf. de Laplace y Funcion Generadora de Momentos
Definicion Sea X v. a. acotada inferiormente i. e. ∃m ∈ R tal que P(X ≥ m) = 1. SuTransformada de Laplace es a funcion:
ψX : R+ → R+
s → ψX(s)con ψX(s) = E(e−sX) =
∞∫m
e−sx dFX(x)
Nota Como X es acotado inferiormente, ψX(s) es finito ∀s ∈ R
Propiedades Sea X acotado inferiormente por m:
(a) ψX(s) ∈ (0, e−sm], ∀s ≥ 0. En particular si X ≥ 0 se tiene ψX(s) ∈ (0, 1]
(b) ψX(0) = 1
(c) Si α ∈ R, β ≥ 0 se tiene ψα+βX(s) = e−sαψX(βs)
(d) La funcion ψX solo depende de FX . Aun mas, se cumple que:ψX = ψY ⇔ FX = FY , donde ψX(s) = ψY (s) ∀s ∈ R+
61
62 INDICE GENERAL
(e) Si E(|Xn|) <∞, entonces ∃dnψX(s)
dsn
∣∣∣0
= (−1)nE(Xn)
(f) Si X es discreta tomando valores en el conjunto numerable I ⊆ [m,∞), se tiene:
ψX(s) =∑a∈I
e−saPX(a) =∑a∈I
e−saP(X = a)
(g) Si X es abs. continua con densidad fX tal que fX = 0 si x < m se verifica:
ψX(s) =
∞∫m
e−sxfX(x) dx
(h) Si X e Y son independientes: ψX+Y (s) = ψX(s) · ψY (s)
Nota De (c) y (h) se obtiene:Si X1, . . . , Xn son v. a. indep. acotadas inferiormente, α ∈ R y β1, . . . , βn ≥ 0, entonces:
ψα+
n∑j=1
βjXj= e−sα
n∏j=1
ψXj (βjs)
Demostracion
(a) e−sX ≤ e−sm si X ≥ m
(b) e−0X = 1
(c) ψα+βX(s) = E(e−(α+βX)s) = e−αsE(e−βXs) = e−αsψX(βs)
(d) FX = FY ⇒ ψX =
∫e−sx dFX(x) =
∫e−sx dFY (x) = ψY (s), ∀s ∈ R+
Nota FX(x) =
∞∫−∞
1(−∞,X](z) dFX(z), ψX(s) =
∞∫−∞
e−sz dFX(z)
(e) Si E(|X|n) <∞, entonces:
dnψX(s)
dsn
∣∣∣0
=
∞∫m
(dn e−sx
dsn
) ∣∣∣0dFX(x) =
∞∫m
(−1)nxn dFX(x) = (−1)nE(Xn)
(h) Sean X e Y indep. Entonces:ψX+Y (s) = E(e−s(X+Y )) = E(e−sXe−sY ) = E(e−sX)E(e−sY ) = ψX(s)ψY (s)
A ψX(s), s ∈ R+ a menudo se le llama funcion generadora de momentos, aunque tambien
se usa este nombre para la funcion ξX : (0, 1) → R+
µ → ξX(µ)con ξX(µ) = E(µX) =
∞∫m
µx dFX(x).
Notemos que ξX(µ) = ψX(− log(µ)), ∀µ ∈ (0, 1] y reciprocamente ψX(s) = ξX(e−s), ∀s ≥ 0
Clase 19 - 16/05/2013
Nota Si F funcion de distribucion tal que F (m−) = 0 (es decir, F esta “concentrado” en[m,∞)), se define:
∀s ≥ 0 ψF (s) =
∞∫m
e−sx dF (x) Transformada de Laplace
∀µ ∈ (0, 1] ξF (µ) =
∞∫m
µx dF (x) Funcion generadora de F
Transformada de Fourier. Funcion Caracterıstica
Definicion Sea X v. a. Su funcion caracteristica es la funcion:
ϕX : R → C
t → ϕX(t)con ϕX(t) = E(eitX) = E(cos(tX) + i sin(tX)) = E(cos(tX)) + iE(sin(tX))
Se tiene entonces:
ϕX(t) =
∞∫−∞
eitx FX(x) =
∞∫−∞
cos(tx) dFX(x) + i
∞∫−∞
sin(tx) dFX(x)
Nota Si F es funcion de distribucion, se define su funcion caracterıstica por:
ϕF : R → C
t → ϕX(t)con ϕF (t) =
∞∫−∞
eitx FX(x) =
∞∫−∞
cos(tx) dFX(x) + i
∞∫−∞
sin(tx) dFX(x)
Propiedades
(a) Para toda v. a. X siempre ∃ su funcion caracterıstica.
(b) |ϕX(t)| ≤ 1, ∀t ∈ R
(c) ∀a, b ∈ R, ϕa+bX(t) = eitaϕX(bt)
(d) ϕX solo depende de FX . Aun mas, ϕX = ϕY ⇔ FX = FY
(e) Si ∃E(|X|n) <∞ para cierto n ∈ N, entonces ∃ dn
dtnϕX(t)
∣∣∣0
= inE(Xn)
63
64 INDICE GENERAL
(f) Si X : discreta a valores en I ⊆ R numerable
ϕX(t) =∑a∈I
eitxPX(a) =∑a∈I
eitxP(X = a)
(g) Si X abs. continua con densidad fX
ϕX(t) =
∞∫−∞
e−txfX(x)dx =
∞∫−∞
cos(tx)fX(x) dx+ i
∞∫−∞
sin(tx)fX(x) dx
(h) Si X e Y son indep. se tiene: ϕX+Y (t) = ϕX(t)ϕY (t)
(i) ϕX(−t) = ϕX(t), siendo a+ ib = a− ib su complejo conjugado.
(j) ϕX(t) ∈ R, ∀t ∈ R⇔ FX = F−X , es decir X es simetrica con respecto al 0
(k) ϕX(t) uniformemente continua si ∀ε > 0 ∃δ > 0 tal que:|t− t′| < δ(ε)⇒ |ϕX(t)− ϕX(t′)| < ε
Nota De (c) y (h) se tiene que si X1, . . . , Xn indep. y α, β1, . . . , βn ∈ R:
ϕα+
n∑j=1
βjXj(t) = eiαt
n∏j=1
ϕXj (βjt)
Demostracion
(0) X v. a. ⇒ cos(tx) y sin(tx) son v. a. Estan acotados, toman valores en [−1, 1] por lo queE(cos(tX)) y E(sin(tX)) ∃ y son finitas, de donde ϕX(t) ∈ C esta bien definido.
(a) |ϕX(t)|2 = |E(cos(tX)) + iE(sin(tX))|2 = (E(cos(tX)))2 + (E(sin(tX)))2
≤ E(cos(tX)2) + E(sin(tX)2) = E(cos(tX)2 + sin(tX)2) = E(1) = 1
(i) ϕX(−t) = E(cos(−tX)) + iE(sin(−tX)) = E(cos(tX))− iE(sin(tX)) = ϕX(t)
(j) ϕX(t) ∈ R ∀t⇔ ϕX(t) = ϕX(t)⇔ ϕX(t) = ϕX(−t)⇔ ϕX(t) = ϕ−X(t) Luego, ϕX = ϕ−Xy por (b) concluimos que FX = F−X
Nota Todos los demas son iguales a las demostraciones de Laplace.
Ejemplo
(1) Xa = a v. a. constante. Se tiene ϕXa(t) = eiat ∀t ∈ R
(2) X ∼Bernoulli(p), ϕX(t) = (1− p) + peit ∀t ∈ R
Propiedad Si X ∼ N(µ, σ2), entonces:
ϕX(t) = eiµt−12 t
2σ2
, ∀t ∈ REn particular, si X ∼ N(0, 1), entonces:
ϕX(t) = e−t2
2
INDICE GENERAL 65
Demostracion Si X ∼ N(0, 1), entonces µ + σX ∼ N(µ, σ2). Usando la propiedad (c),ϕµ+σX(t) = eiµtϕX(σt). Luego, solo hay que demostrar el caso particular.
Sea X ∼ N(0, 1), entonces,
ϕX(t) =1√2π
∞∫−∞
eitxe−x2
2 dx =1√2π
∞∫−∞
e−( x−it2 )2e−t2
2 dx
Y despues con un poquito de magia (que tengo que anadir despues) sale.
Teorema Central del Limite
Demos el marco conceptual para este resultado.
Definicion Sea (Fn : n ≥ 1)sucesion de funciones de distribucion y F funcion de distribucion.Definimos:
Fnd→ F ⇔ ∀x punto de continuidad de F se tiene lım
n→∞Fn(x) = F (x)
y se dice que Fn converge debilmente a F
Nota x punto de continuidad de F si F (x−) = F (x). Recordemos que F (x) = F (x+)siempre, luego, x punto de continuidad si F (x−) = F (x) = F (x+)
Definicion La sucesion de v. a. (Xn : n ∈ N) converge en distribucion a la v. a. X si:
FXnd→ FX . Se escribe XN
D→ X
Nota Tambien se dice que Xn converge en ley a X
En v. a. esta convergencia es la mas debil de las definidas, pues se tiene:
Propiedad Xn →n→∞
X en probabilidad ⇒ XnD→ X
Demostracion Sea Xn → X en probabilidad. Debemos mostrar que
lımn→∞
FXn(x) = FX(x) ∀x tal que FX(x−) = FX(x)
Nos bastara probar lo siguiente:∀x′ < x < x′′, FX(x′) ≤ lım inf
n→∞FXn(x) ≤ lım sup
n→∞FXn(x) ≤ FX(x′′)
Esto es suficiente pues si x es punto de continuidad de F nos basta tomar x′ x y x′′ x yse deduce FX(x) = lım
n→∞FXn(x)
Solo probaremos la primera desigualdad, ya que la tercera es analoga y la segunda es trivial.
FX(x′) = P(X ≤ x′) = P(X ≤ x′, |Xn −X| > x− x′) + P(X ≤ x′, |Xn −X| ≤ x− x′)≤ P(|Xn −X| > x− x′) + P(Xn ≤ x)
Tomando lım infn→∞
, como x− x′ > 0 y usando Xn → X en probabilidad, deducimos
66 INDICE GENERAL