FOLLETOFINAL
-
Upload
andres-sacoto -
Category
Documents
-
view
573 -
download
0
Transcript of FOLLETOFINAL
1
Apuntes de:
PROBABILIDAD Y
PROCESOS
ESTOCASTICOS
2
Elaborado por:
Andrés Sacoto C.
Nury Cornejo C.
1
Variable Aleatoria (V.A)
Una variable aleatoria es una variable que toma valores numéricos determinados por el
resultado de un experimento aleatorio. No hay que confundir la variable aleatoria con sus posibles
valores.
Ejemplo:
Número de llamadas que recibe un teléfono en una hora.
Tiempo que esperan los clientes para pagar en un supermercado.
nº de caras al lanzar 6 veces una moneda (valores: 0, 1, 2…).
Existen dos tipos de Variables Aleatorias:
Discretas: el conjunto de posibles valores es numerable. Suelen estar asociadas a
experimentos en que se mide el número de veces que sucede algo.
Continuas: el conjunto de posibles valores es no numerable. Puede tomar todos los
valores de un intervalo. Son el resultado de medir.
Función Distribución de Probabilidad
Se denota por 𝐹𝑥 𝑥0 representa en cada punto x0 la probabilidad de que la variable tome
un valor menor o igual que dicho punto, es decir, 𝑃(𝑥 ≤ 𝑥0).
Ejemplo:
𝐹𝑥 (2) = 𝑃(𝑥 ≤ 2)
Propiedades
Dada una V.A X y 𝐹𝑥 𝑥 = lim휀→0 𝐹𝑥 𝑥 + 휀 , 𝐹𝑥 𝑥 = lim휀→0 𝐹𝑥 𝑥 − 휀
1. 0≤𝐹𝑥 𝑥 ≤1 𝐹𝑥 +∞ =1 𝐹𝑥 −∞ =0
2. 𝐹𝑥 𝑥 es una función no decreciente de x, esto es 𝐹𝑥 𝑥2 ≥ 𝐹𝑥 𝑥1 ; si 𝑥2 > 𝑥1 (siempre
creciente).
3. Si a<b =>𝐹𝑥 𝑎 ≤ 𝐹𝑥 𝑏
4. Si 𝐹𝑥 𝑥0 = 0 => 𝐹𝑥 𝑥 = 0 para todo x≤x0
5. P(x>x) = 1 – P(x ≤x) = 1 - 𝐹𝑥 𝑥
2
6. 𝐹𝑥 𝑥 es continua por la derecha, esto es 𝐹𝑥 𝑥+ = 𝐹𝑥 𝑥
7. P(x1<x< x2) = 𝐹𝑥 𝑥2 − 𝐹𝑥 𝑥1
8. P(x=x) = 𝐹𝑥 𝑥+ − 𝐹𝑥 𝑥− si x es una V.A continua entonces la P(x=x) = 0
9. P(x1≤ x≤ x2) = 𝐹𝑥 𝑥2 − 𝐹𝑥 𝑥1−
Función Densidad de Probabilidad
Describe la densidad de la probabilidad en cada punto del espacio de tal manera que la
probabilidad de que la variable aleatoria tome un valor dentro de un determinado conjunto sea la
integral de la función de densidad sobre dicho conjunto.
𝑓𝑥 𝑥 =𝑑𝐹𝑥 (𝑥)
𝑑𝑥
Propiedades
1) 𝑓𝑥 𝑥 ≥ 0
2) P(a≤ x ≤b) = 𝑓𝑥 (𝑥)𝑑𝑥𝑏
𝑎
3) 𝑓𝑥 𝑥 𝑑𝑥 = 1+∞
−∞ ; 𝑓𝑥 𝑥 = 1𝑥𝑖
4) 𝐹𝑥 𝑥 = 𝑓𝛼 (𝛼)𝑑𝛼𝑥
−∞
Ejemplo:
Verificar si las siguientes funciones son distribuciones de probabilidad
a) 𝑓𝑥 𝑥 = 𝑥−3
3 ; 𝑥 = 1,2,3,4,5
𝑓𝑥 𝑥 =𝑥 − 3
3= 1
4
𝑥=1
−2
3−
1
3+ 0 +
1
3+
2
3= 0
𝑓𝑥 1 𝑦 𝑓𝑥 2 < 0
∴ 𝑁𝑜 𝑒𝑠 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑
b) 𝑓𝑥 𝑥 = 2𝑒−2𝑥 ; 𝑥 > 0 0 ; 𝑥 ≤ 0
2𝑒−2𝑥𝑑𝑥∞
0
= 2 −1
2𝑒−2𝑥
0
∞
= 2 0 +1
2 = 1
3
∴ 𝑆𝑖 𝑒𝑠 𝑓𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑
Ejemplo:
Dada 𝑓𝑥 𝑥 = 𝑎𝑒−3𝑥 ; 𝑥 > 0 0 ; 𝑥 ≤ 0
a) Determinar a para que sea fdp.
b) P(2<x<5)
c) P(x<3)
d) P(x>6)
e) Graficar 𝑓𝑥 𝑥 y 𝐹𝑥 𝑥
a)
𝑎𝑒−3𝑥𝑑𝑥∞
0
= 𝑎 −1
3𝑒−3𝑥
0
∞
= 𝑎 0 +1
3 = 1
∴ 𝑎 = 3
b) P(2<x<5)
3𝑒−3𝑥𝑑𝑥5
2
= 3 −1
3𝑒−3𝑥
2
5
= 3 −𝑒−15
3+
𝑒−6
3 = 𝑒−6 − 𝑒−15
P (2<x<5) = 2.47x10-3
c) P(x<3)
3𝑒−3𝑥𝑑𝑥3
0
= 3 −1
3𝑒−3𝑥
0
3
= 3 −𝑒−9
3+
𝑒0
3 =
1
3− 𝑒−9
P(x<3) = 0.333
d) P(x>6)
3𝑒−3𝑥𝑑𝑥∞
6
= 3 −1
3𝑒−3𝑥
6
∞
= 3 −𝑒−∞
3+
𝑒−18
3 = 𝑒−18 − 0
P(x>6) = 1.523x10-18
e) 𝐹𝑥 𝑥
4
3𝑒−3𝛼 𝑑𝛼𝑥
0
= 3 −1
3𝑒−3𝛼
0
𝑥
= −𝑒−3𝑥 + 1
𝐹𝑥 𝑥 = 1 − 𝑒−3𝑥 ; 𝑥 > 0 0 ; 𝑥 ≤ 0
Distribución Binomial
Existen solamente dos resultado posibles en cada ensayo
La probabilidad de un éxito es la misma en cada ensayoi
Hay n ensayos, donde n es constante
Los n ensayos son independientes
𝑏 𝑥; 𝑛, 𝑝 = 𝑛𝑥 𝑝𝑥 (1 − 𝑝)𝑛−𝑥 ; 𝑥 = 0,1,2,3, … , 𝑛
𝐵 𝑥; 𝑛, 𝑝 = 𝑏 𝑘; 𝑛, 𝑝 ; 𝑥 = 0,1,2,3, … , 𝑛
𝑥
𝑘=0
Identidades Binomiales
b(x; n, p) = b(n-x; n, 1-p)
B(x; n, p) = 1 – B(n-x-1; n; 1-p)
b(x; n, p) = B(x; n, p) – B(x-1; n, p)
b(x; n, p) = B(n-x; n, 1-p) – B(n-x-1; n, 1-p)
-2 0 2 4 6 8 100
0.5
1
1.5
2
2.5
3Funcion densidad de probabilidad
0 0.5 1 1.5 2 2.5 30
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Funcion distribucion de probabilidad
5
Ejemplo:
Se asegura que en una empresa de instalaciones eléctricas, en el 70% de las instalaciones se
reducen al menos una 3° parte de los gastos si se hacen con ciertos materiales de buena calidad.
De acuerdo con lo anterior, cuáles son las probabilidades de que se reduzcan al menos una 3°
parte en:
a) Cuatro de seis instalaciones
b) En al menos tres de seis instalaciones
a) P(x=4)
p = 0.7
𝑏 4; 6,0.7 = 64 0.74(0.3)2 = 0.324
b) P(x=3)+P(x=4)+P(x=5)+P(x=6) ó 1- [P(x=1) + P(x=2)]
1 − 61 0.71 0.3 5 +
62 0.72 0.3 4 = 1 − 0.069 = 0.93
Determinación de probabilidades
Nos encontraremos casos en los que nos dan una gráfica de distribución de probabilidad y
nos piden calcular una serie de probabilidades lo cual veremos que se puede hacer solo con la
gráfica teniendo claros los conceptos de distribución de probabilidad.
Ejemplo:
Como tenemos los puntos en la gráfica
podemos determinar la función de
distribución de probabilidad de la siguiente
manera
𝐹𝑥 𝑥 =
0 ; 𝑥 < 0𝑥 + 1
4; 0 ≤ 𝑥 < 1
1 ; 𝑥 ≥ 1
-1 -0.5 0 0.5 1 1.5 2 2.5 3
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Fx
x
6
Determinar:
a) P(x< -1/2)
b) P(1/4≤ x <1)
c) P(x≥ 5)
d) P(1/4≤ x ≤1)
e) P(x< 5)
f) P(x≤0)
g) P(x>1/2)
Solución:
a) En si nos están pidiendo Fx(-1/2) y esto es 0, como podemos observar en la gráfica y en la
función de distribución por tramos.
b) P(1/4≤ x <1)= Fx(1) - Fx(1/4), notemos que para ambos valores ¼ y 1 tenemos la función 𝑥+1
4 ya que el 1 no está incluido en la probabilidad que nos piden.
P (1/4≤ x <1)= 1/2 - 5/16 = 3/16
c) P(x≥ 5) = 1 – P(x<5) = 1 – Fx(5)
P (x≥ 5) = 1 – 1= 0
d) P(1/4≤ x ≤1) = Fx(1) – Fx(1/4), como ahora en la probabilidad que nos piden está incluido el
1 entonces Fx(1)=1 y tendríamos que
P (1/4≤ x ≤1) = 1 – 5/16 = 11/16
e) P(x<5) = Fx(5) = 1
f) P(x≤0) = Fx(0) , para lo cual usamos la ecuación 𝑥+1
4 y tenemos que
P(x≤0) = 1/4
g) P (x> 1/2) = 1 – P (x ≤ 1/2) = 1-Fx(1/2)
P (x> 1/2) = 1 – 3/8 = 5/8
7
Valor Esperado
En el caso que X sea una v.a. discreta, este valor es la media ponderada de los posibles
valores que puede tomar la variable X, en donde los pesos o ponderaciones son las probabilidades
de ocurrencia de los posibles valores de X. Luego el valor esperado de X se interpreta como una
media ponderada de los posibles valores de X, y no como el valor que se espera que tome X, pues
puede suceder que E [X] no sea uno de los posibles valores de X. En el caso de v.a. continua, E [X]
nos indica el centro de la función de densidad, es decir, nos indica el centro de gravedad de la
distribución.
𝑛𝑥 = 𝐸 𝑥 = 𝑥 𝑓𝑥 (𝑥)∞
−∞
𝑑𝑥 ; 𝑑𝑎𝑑𝑜 𝑞𝑢𝑒 𝑙𝑎 𝑉. 𝐴 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎
𝑛𝑥 = 𝐸 𝑥 = 𝑥𝑖 𝑃(𝑥 = 𝑥𝑖)
∞
𝑖= −∞
; 𝑑𝑎𝑑𝑜 𝑞𝑢𝑒 𝑙𝑎 𝑉. 𝐴 𝑒𝑠 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎
Propiedades
E[ c ] = c -> donde c es una constante
E[ c g(x) ] = c E[ g(x) ]
E[ g1(x) + g2(x) + g3(x) + … + gn(x)] = E[ g1(x) ] + E[ g2(x) + + … + E* gn(x) ]
Si fx(x) es simétrica en x=a => E[ x ] = a
Si fx(x) es simétrica en x=0 => E[ x ] = 0
Varianza
La varianza de una variable aleatoria es una medida de su dispersión. Se trata de la
esperanza del cuadrado de la desviación de la variable frente su media y se mide en una unidad
diferente.
Var(x) = E[(x - nx)2]
Var(x) = 𝑥 − 𝑛𝑥 2∞
−∞𝑓𝑥 𝑥 𝑑𝑥 V.A Continua
Var(x) = 𝑥 − 𝑛𝑥 2𝑃 𝑥 = 𝑥𝑛 ∞−∞ V.A Discreta
Var(x) = E[ x2 ] – nx2
8
Propiedades
Var (c) = 0 ; c = constante
Var (x+c) = Var (x)
Var (cx) = c2 Var (x)
Ejemplo:
Una V.A. x puede tomar los valores -4, -3, -2, -1, 1, 2, 3, 4, con igual probabilidad.
Determinar la varianza de Y=2x3
Solución:
Como es una variable discreta y todos los valores tienen la misma probabilidad, entonces
la probabilidad de cada valor seria 1/8.
Var (Y) = Var (2x3) = 4 Var( x3 )
Var (Y) = 4 {E [ x6 ] – E [ x3 ]2}
E [ x6] = 4*[(-4)6(1/8) + (-3)6(1/8) + (-2)6(1/8) + (-1)6(1/8) + (1)6(1/8) + (2)6(1/8) + (3)6(1/8) +
(4)6(1/8)]
Var (Y) = 4890
Probabilidad Condicional
El concepto de probabilidad condicional es muy sencillo. Está basado en una situación
particular que podemos resumir como sigue: “probabilidad de ocurrencia de un evento en un
escenario muy particular”
Vamos a explicar lo anterior. Suponga que se lanza un dado. Existe una clase de
escenarios exhaustivos y no traslapados como son: “el número del dado es par” y “el número del
dado es impar”. Entonces bajo la hipótesis de trabajar con esta clase de escenarios, uno se puede
preguntar la probabilidad de obtener algún determinado número bajo uno de estos escenarios.
P [ A/M] = 𝑃(𝐴∩𝑀)
𝑃(𝑀) ; P(M) ≠ 0
9
Función Distribución Condicional
Fx (x / M) = P (x≤x /M) = 𝑃{ 𝑥≤𝑥 ∩𝑀 }
𝑃 (𝑀)=
𝑃{ 𝑥≤𝑥 ,𝑀 }
𝑃 (𝑀)
Función Densidad Condicional
fx ( x/ M) = 𝑑 𝐹𝑥 (𝑥/ 𝑀)
𝑑𝑥 ; M en términos de x
Propiedades
Fx (+∞/ M) = 1
Fx (-∞/ M) = 0
P(x1 < x≤ x2) = Fx (x2 / M) - Fx (x1 / M) = P (x1<𝑥 ≤ x2 ; M)
P (M)
Ejemplo:
Determinar Fx (x/ M) y fx (x/ M); dado que M= ,x≤a-
Dato: Fx (x) = P (x≤x)
Solución:
Fx(x /M)= P (x≤x/M) = 𝑃 (x≤𝑥)∩𝑀
𝑃 (𝑀)=
𝑃 x≤𝑥 ∩(𝑥≤𝑎)
𝑃 (𝑀)
Dibujaremos en una recta numérica para poder visualizar lo que nos piden
b<x<a
a x a
a x<x x a
10
Como podemos ver la intersección de estas dos rectas sería P (x≤x) y tendríamos:
Fx(x /M) = P(x≤x)
P(x≤a)=
Fx (x)
Fx (a)
Ejemplo:
M = ,b<x≤a-; a>b
Solución:
En este ejemplo tendríamos tres casos que los representaremos en las siguientes rectas.
Caso 1: Donde a>b pero menor que x
b a x
Fx(x /M)= P (x≤x/M) = 𝑃 (x≤𝑥)∩𝑀
𝑃 (𝑀)=
𝑃 x≤𝑥 ∩(𝑏<𝑥≤𝑎)
𝑃 (𝑏<𝑥≤𝑎)
x<x
b a x
b<x<a
b a x
Como podemos observar la intersección de estas dos gráficas sería P(b<x≤a) y tendríamos:
Fx(x /M) = P(b<x≤a)
P(b<x≤a)= 1
Caso 2: Donde a>b pero mayor que x
x b a
Fx(x /M)= P (x≤x/M) = 𝑃 (x≤𝑥)∩𝑀
𝑃 (𝑀)=
𝑃 x≤𝑥 ∩(𝑏<𝑥≤𝑎)
𝑃 (𝑏<𝑥≤𝑎)
x<x
x b a
11
b<x<a
x b a
Como podemos observar la no existe intersección entre ambas graficas y tendríamos:
Fx (x /M) = 0
P(b<x≤a)= 0
Caso 3: Donde a>b pero x está entre ambos valores
b x a
Fx(x /M)= P (x≤x/M) = 𝑃 (x≤𝑥)∩𝑀
𝑃 (𝑀)=
𝑃 x≤𝑥 ∩(𝑏<𝑥≤𝑎)
𝑃 (𝑏<𝑥≤𝑎)
x<x
b x a
a>b
b x a
Como podemos observar la intersección de las dos gráficas sería P (x≤x)-P(x<b) y tendríamos:
Fx(x /M) = P x≤x −P x≤b
P(b<x≤a)=
Fx x − Fx b
Fx a −Fx b
Probabilidad Total
Ai ∩ Aj = Φ; i≠j = 1,2,3,.., n
𝐴𝑖 = 𝑆
𝒏
𝒊=𝟏
12
Teorema de la probabilidad total
Sea A1, A2,..., An un sistema completo de sucesos tales que la probabilidad de cada uno de
ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las probabilidades
condicionales P(B/Ai), entonces la probabilidad del suceso B viene dada por la expresión:
P (B) =P (B/A1)*P (A1) + P (B/A2)*P (A2) + P (B/A3)*P (A3) + … + P (B/An)*P (An)
P (x≤x) =P (x≤x/ A1)*P (A1) + P (x≤x/ A2)*P (A2) + … + P (x≤x/An)*P (An)
Fx(x) =Fx(x/ A1)*P (A1) + Fx(x/ A2)*P (A2) + … + Fx(x/An)*P (An)
fx(x)= fx(x/A1)*P (A1) + fx(x/A2)*P (A2) + … + fx(x/An)*P (A1)
P(A/B) =𝑃(𝐴∩𝐵)
𝑃(𝐵) P(A/B)P(B) =P(B/A)P(A)
P(B/A) =𝑃(𝐴∩𝐵)
𝑃(𝐴) P(A/B) =
𝑃(𝐵/𝐴)𝑃(𝐴)
𝑃(𝐵)
P(B/A) =𝑃(𝐴/𝐵)𝑃(𝐵)
𝑃(𝐴)
Valor esperado de Y =g(x)
E [Y] =E [g(x)] = 𝑔 𝑥 𝑓𝑥 𝑥 𝑑𝑥∞
−∞
Valor esperado Condicional
E [x/ M] = 𝑥𝑓𝑥 (𝑥 𝑀 )𝑑𝑥∞
−∞ ; V.A. Continua
E [x/ M] = 𝑥𝑛𝑃 [𝑥 = 𝑥𝑛 𝑀 ]∞𝑛=−∞ ; V.A. Discreta
Ejemplo:
Sea X la entrada a un canal de comunicaciones y Y la salida. La entrada al canal es +1 ó -
1con igual probabilidad. La salida del canal es la entrada más el de ruido N que está
uniformemente distribuido en el intervalo [-2,2] encuentre la probabilidad de P *x=+1, Y≤y+
13
Solución:
Siendo Y =X + N, fN(x) es uniforme en (-2,2), por tanto fY(y/ x=+1) es también uniforme en (-1,3), es
decir fY(y/ x=+1)=1
4
P(x=+1/ Y≤y) = 𝑓𝑦 𝑦 𝑥 = +1 𝑑𝑦 = 1
4
0
−1
Ejercicio Completo
a) Determinar y graficar Fx(x)
b) Determinar c para que P(|x-3|<c) =1/4
c) E[x] y Var(x)
d) Determinar y Graficar Fx(x/M) y fx(x/M) ; M =,x≥3-
-5 -4 -3 -2 -1 0 1 2 3 4 50
0.05
0.1
0.15
0.2
0.25fn
n
-5 -4 -3 -2 -1 0 1 2 3 4 50
0.05
0.1
0.15
0.2
0.25fy(y/x=+1)
y
0 1 2 3 4 5 6 70
0.05
0.1
0.15
0.2
0.25
0.3
0.35fx
x
14
Solución:
a)
Para determinar Fx(x) primero debemos encontrar el valor de a
𝐹𝑥 𝑥 = 𝑓𝛼 𝛼 𝑑𝛼 = 𝑎 𝛼 − 1 𝑑𝛼𝑥
1
+ 𝑎𝑥
2
𝑑𝛼𝑥
0
+ −𝑎
2 𝛼 − 6 𝑑𝛼
𝑥
4
𝐹𝑥 𝑥 = 𝑎 𝛼2
2− 𝛼
1
𝑥
+ 𝛼 2𝑥 −
1
2 𝛼2
2− 6𝛼
4
𝑥
𝐹𝑥 𝑥 = 𝑎 𝑥2
2− 𝑥 +
1
2 + 𝑎 𝑥 − 2 −
𝑎
2 𝑥2
2− 6𝑥 + 16
1 = 𝑎
2+ 3𝑎 =
7𝑎
2 → ∴ 𝑎 =
2
7
𝐹𝑥 𝑥 =
0 ; 𝑥 < 1
𝑥2
7−
2𝑥
7+
1
7 ; 1 ≤ 𝑥 < 2
2𝑥
7−
3
7 ; 2 ≤ 𝑥 < 4
−𝑥2
14+
6𝑥
7−
11
7 ; 4 ≤ 𝑥 < 6
1 ; 𝑥 ≥ 6
0 1 2 3 4 5 6 70
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Fx
x
15
b)
Resolvemos el valor absoluto y tenemos
P (|x-3|<c) =P (-c<x-3<c) =P(3-c<x<3+c)= Fx(3+c)- Fx(3-c) =1/4
Reemplazamos en la función del intervalo correspondiente de Fx que sería 2𝑥
7−
3
7 y
tenemos
2(3 + 𝑐)
7−
3
7−
2 3 − 𝑐
7+
3
7=
1
4 ⟹ 6 + 2𝑐 − 6 + 2𝑐 =
7
4
4c =7
4 ⟹ ∴ c =
7
16
c)
𝐸 𝑥 = 2
7𝑥(𝑥 − 1)𝑑𝑥
2
1
+ 2𝑥
7𝑑𝑥
4
2
− 1
7𝑥(𝑥 − 6)𝑑𝑥
6
4
𝐸 𝑥 =2
7 𝑥3
3−
𝑥2
2
1
2
+ 2
7 𝑥2
2
2
4
−1
7 𝑥3
3− 6
𝑥2
2
4
6
=5
21+
12
7+
4
3
E x =23
7
d) Fx(x /M)= P (x≤x/M) = 𝑃 (x≤𝑥)∩𝑀
𝑃 (𝑀)=
𝑃 x≤𝑥 ∩(𝑥≥3)
𝑃(𝑥≥3)
x≤x
3 x
x≥3
3 x
𝐹𝑋 𝑥 𝑀 = 𝐹𝑥 𝑥 − 𝐹𝑥 (3)
1 − 𝐹𝑥 (3)=
𝐹𝑥 𝑥 −37
47
𝐹𝑋 𝑥 𝑀 =
0 ; 𝑥 ≤ 3𝑥 − 3
2 ; 3 < 𝑥 ≤ 4
−𝑥2
8+
3𝑥
2−
7
2 ; 4 < 𝑥 ≤ 6
1 ; 𝑥 > 6
16
𝑓𝑥 𝑥 𝑀 =𝑑𝐹𝑥 (𝑥/𝑀)
𝑑𝑥
𝑓𝑥 𝑥 𝑀 =
0 ; 𝑥 < 31
2 ; 3 ≤ 𝑥 < 4
−𝑥
4+
3
2 ; 4 ≤ 𝑥 < 6
0 ; 𝑥 ≥ 6
0 1 2 3 4 5 6 70
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Fx(X/M)
x
0 1 2 3 4 5 6 70
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
x
fx(X/M)
17
Determinación de fY(y) Teorema Fundamental
Para encontrar fY(y) para un Y específico, se resuelve la ecuación y= g(x) para x en términos
de y. Denotando las raíces por xn; y =g (x1) =g (x2) =…=g (xn)
𝑓𝑌 𝑦 = 𝑓𝑥 (𝑥1)
𝑔′(𝑥1) +
𝑓𝑥 (𝑥2)
𝑔′(𝑥2) + ⋯ +
𝑓𝑥 𝑥𝑛
𝑔′ 𝑥𝑛 ; 𝑔′ 𝑥 =
𝑑 𝑔(𝑥)
𝑑𝑥
𝑓𝑌 𝑦 = 𝑓𝑥 (𝑥)
𝑔′(𝑥)
Dos Variables
Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales
de forma semejante al caso unidimensional.
FXY (x, y) =P ,X≤x; Y≤y-
fXY (x,y) = 𝑑𝐹𝑋𝑌 (𝑥 ,𝑦)
𝑑𝑥𝑑𝑦
Propiedades FXY (x, y)
𝐹𝑋𝑌 −∞, 𝑦 = 0
𝐹𝑋𝑌 𝑥, −∞ = 0
𝐹𝑋𝑌 −∞,∞ = 1
𝑃 𝑥1 < 𝑋 ≤ 𝑥2 , 𝑌 ≤ 𝑦 = 𝐹𝑋𝑌 𝑥2, 𝑦 − 𝐹𝑋𝑌 𝑥1, 𝑦
𝑃 𝑋 ≤ 𝑥 , 𝑦1 < 𝑌 ≤ 𝑦2 = 𝐹𝑋𝑌 𝑥, 𝑦2 − 𝐹𝑋𝑌 𝑥, 𝑦1
𝑃 𝑥1 < 𝑋 ≤ 𝑥2 , 𝑦1 < 𝑌 ≤ 𝑦2 = 𝐹𝑋𝑌 𝑥2, 𝑦2 − 𝐹𝑋𝑌 𝑥1, 𝑦2 − 𝐹𝑋𝑌 𝑥2, 𝑦1 + 𝐹𝑋𝑌 𝑥1, 𝑦1
18
Propiedades fXY (x, y)
𝑓𝑋𝑌 𝑥, 𝑦 𝑑𝑥𝑑𝑦 = 1∞
−∞ 𝐹𝑋𝑌 𝑥, 𝑦 = 𝑓𝑋𝑌 (𝛼, 𝛽)𝑑𝛼𝑑𝛽
𝒙
−∞
𝒚
−∞
Marginales
FX(x) =FXY (x,+∞) FY(y) =FXY (+∞,y)
𝑓𝑋 𝑥 = 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦+∞
−∞ 𝑓𝑌 𝑦 = 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥
+∞
−∞
Ejemplo:
Sea X,Y V.A. con función de densidad
𝑓𝑋𝑌 𝑥, 𝑦 = 1 𝑠𝑖 𝑦 < 𝑥 ; 0 < 𝑥 < 10 𝑟𝑒𝑠𝑡𝑜
a) Comprobar que fXY(x,y) es una fdp.
b) Determinar la media de X e Y
c) Determinar la varianza de X e Y
d) Determinar las siguientes probabilides
P(x< ½ ; Y<0)
P(x>1/2 ; -1/2< Y <1/2)
Solución:
En el siguiente gráfico podemos visualizar la zona de integración que se obtuvo al despejar |y|<x,
y que se encuentra limitado por 0<x<1
-x<y<x -> en la zona de integración tendremos a los y>x y a los y<-x
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y= x
y= -x
y
x
19
a) Para comprobar que sea una f.d.p usaremos 𝑓𝑋𝑌 𝑥, 𝑦 𝑑𝑥𝑑𝑦 = 1∞
−∞
∞
−∞
𝑑𝑥𝑑𝑦 = 𝑦 −𝑥𝑥 𝑑𝑥 = 2𝑥 𝑑𝑥 = 2
𝑥2
2
0
1
= 1
1
0
1
0
𝑥
−𝑥
1
0
∴ 𝑆𝑖 𝑒𝑠 𝑓. 𝑑. 𝑝
b) Para determinar la media de X y Y primero debemos hallar la marginal de X y Y para lo cual
tenemos:
𝑓𝑥 𝑥 = 𝑓𝑋𝑌 𝑥, 𝑦 𝑑𝑦∞
−∞
𝑓𝑥 𝑥 = 𝑑𝑦𝑥
−𝑥
= 2𝑥
E[x] = 𝑥 2𝑥 𝑑𝑥 = 2 𝑥 3
3
0
11
0
E[x]= 2/3
𝑓𝑌 𝑦 = 𝑓𝑋𝑌 𝑥, 𝑦 𝑑𝑥∞
−∞
𝑓𝑌 𝑦 = 𝑑𝑥1
𝑦
+ 𝑑𝑥1
−𝑦
= 1 − 𝑦 + (1 + 𝑦)
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
20
𝑓𝑌 𝑦 = 1 + 𝑦 ; −1 < 𝑦 ≤ 01 − 𝑦 ; 0 < 𝑦 ≤ 1
𝐸 𝑦 = 𝑦 1 + 𝑦 𝑑𝑦 + 𝑦 1 − 𝑦 = 𝑦2
2+
𝑦3
3 −1
0
+ 𝑦2
2−
𝑦3
3
0
11
0
0
−1
𝐸 𝑦 = −1
2+
1
3+
1
2−
1
3= 0
c)
Var (x) =E [x2] – E [x]2
𝐸 𝑥2 = 𝑥2 2𝑥 𝑑𝑥1
0
= 2 𝑥4
4
0
1
= 2 1
4 =
1
2
𝑉𝑎𝑟 𝑥 = 1
2−
2
3
2
= 1
18
Var (y) =E [y2]– E [y]2
𝐸 𝑦2 = 𝑦2 1 + 𝑦 𝑑𝑦0
−1
+ 𝑦2 1 − 𝑦 𝑑𝑦1
0
= 𝑦3
3+
𝑦4
4 −1
0
+ 𝑦3
3−
𝑦4
4
0
1
=1
6
𝑉𝑎𝑟 𝑦 = 1
6− 0 =
1
6
d)
P(x<1/2; y>0)
P x < 1 2 ; y > 0 = dydx = x0.5
0
dx = x2
2
0
0.5
= 1
8
0
−x
0.5
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
21
P(x>1/2; -1/2<y<1/2)
P x > 1 2 ; −1/2 < 𝑦 < 1/2 = dydx = 10.5
0
dx =1
2
0.5
−0.5
1
0.5
Desigualdad de Chebyshev
La desigualdad de Chebyshev es un resultado que ofrece una cota inferior a la probabilidad
de que el valor de una variable aleatoria con varianza finita esté a una cierta distancia de su valor
esperado.
𝑃 𝑥 − 𝑢 ≥ 𝑘𝜍 ≤1
𝑘2; 𝑘 > 0
Si una distribución de probabilidad tiene media 𝑢 y una desviación estándar 𝜍, la
probabilidad de obtener un valor que desvía de 𝑢 al menos en 𝑘𝜍 es a lo mucho1
𝐾2.
Ejemplo:
Suponga que el número de artículos producidos por una fábrica en una semana es una
variable aleatoria con media 50. Si la varianza de una semana de producción se sabe que es igual a
25, entonces ¿Que podemos decir acerca de la probabilidad de que en esta semana la producción
difiera en más de 10 a la media?
𝑢 = 50
𝜍 = 25
𝑥 − 50 = 10
10 ≥ 5𝑘 → 𝑘 ≤ 2
P =1
k2=
1
4
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
y
x
22
Ejemplo:
El número de clientes que visitan una sala exhibición de una empresa automotriz de un
sábado por la mañana es una variable aleatoria con media
𝑢 = 18 y 𝜍 = 25 ¿ Con que probabilidad podremos asegurar que habrá entre 8 28 clientes?.
𝑥 − 18 = 8
8 ≥ 2.5𝑘 → 𝑘 ≤ 3.2
𝑃 𝑥 − 𝑢 ≥ 𝑘𝜍 ≤ 1 −1
𝑘2
−𝑘𝜍 ≤ 𝑥 − 𝑢 ≤ 𝑘𝜍
−𝑘𝜍 + 𝑢 ≤ 𝑥 ≤ 𝑘𝜍 + 𝑢
−𝑘𝜍 + 𝑢 ≤ 𝑥 ≤ 𝑘𝜍 + 𝑢
−2.5𝑘 + 18 ≤ 𝑥 ≤ 2.5𝑘 + 18
−2.5𝑘 + 18 = 8
−2.5𝑘 = −10
𝑘 = 4
𝑃 = 1 −1
16=
15
16
Momento Respecto al Origen
𝑚𝑘 = 𝐸 𝑥𝑘 = 𝑥𝑘𝑓𝑥 𝑥 𝑑𝑥 ;
𝑚0 = 1
𝑚1 = 𝐸 𝑥
𝑚2 = 𝐸[𝑥2]
∞
−∞
Momento Central
𝜇𝑘 = 𝐸 (𝑥 − 𝑛𝑘)𝑘 = 𝑥 − 𝑛𝑘 𝑘𝑓𝑥 𝑥 𝑑𝑥 ; 𝜇0 = 1𝜇1 = 0
𝜇2 = 𝑉𝑎𝑟(𝑥)
∞
−∞
23
Variables Aleatorias Independientes
𝐹𝑋𝑌 𝑥, 𝑦 = 𝐹𝑥 𝑥 ∗ 𝐹𝑌(𝑦)
𝑓𝑋𝑌 𝑥, 𝑦 = 𝑓𝑋 𝑥 ∗ 𝑓𝑌(𝑦)
𝑃 𝑋 = 𝑥𝑖 ; 𝑌 = 𝑦𝑖 = 𝑃 𝑋 = 𝑥𝑖 ∗ 𝑃(𝑌 = 𝑦𝑖)
Función de dos Variables Aleatorias
Dadas 2 V.A. y una función g(x,y), se forma la V.A z =g(x,y). Se requiere calcular fz(z) y Fz(z).
Ejemplo:
𝑓𝑋𝑌 𝑥, 𝑦 = 16
3 𝑥 + 𝑦 ; 0.5 ≤ 𝑦 ≤ 𝑥, 0.5 ≤ 𝑥 ≤ 1
Dado Z=X-Y, encuentre fz(z)
24
𝐹𝑧 𝑧 = 𝑓𝑋𝑌 𝑥, 𝑦 𝑑𝑦𝑑𝑥𝑥−𝑧
−∞
∞
−∞
𝑓𝑍 𝑧 =𝑑 𝐹𝑧 𝑧
𝑑𝑧= 𝑓𝑋𝑌 𝑥, 𝑥 − 𝑧 𝑑𝑥
∞
−∞
𝑓𝑍 𝑧 =16
3 𝑥 + 𝑥 − 𝑧 𝑑𝑥
1
0.5+𝑧
= 16
3 2𝑥 − 𝑧 𝑑𝑥
1
0.5+𝑧
𝑓𝑍 𝑧 = 16
3 𝑥2 − 𝑧𝑥 0.5+𝑧
1 =16
3 1 − 𝑧 − 0.5 + 𝑧 2 − 𝑧(0.5 + 𝑧)
𝑓𝑍 𝑧 =16
3 1 − 𝑧 − (0.25 + 𝑧 + 𝑧2 − 0.5𝑧 − 𝑧2) =
16
3 1 − 𝑧 − (0.25 + 0.5𝑧)
𝑓𝑍 𝑧 =16
3 3
4−
3𝑧
2 = 4 − 8𝑧 ; 0 ≤ 𝑧 ≤
1
2
DOS FUNCIONES DE DOS VARIABLES ALEATORIAS.
Dadas 2 V.A “x” e “y” las funciones g(x, y) y h(x, y), se forma sus V.A 𝑍 = 𝑔 𝑥, 𝑦 , 𝑊 = h(x, y).
𝐹𝑧𝑤 𝑧, 𝑤 = 𝑃 𝑍 ≤ 𝑧, 𝑊 ≤ 𝑤
= 𝑃 g(x, y) ≤ 𝑧, h(x, y) ≤ 𝑤
= 𝑃 (x, y) ∈ D𝑧𝑤
𝐹𝑧𝑤 𝑧, 𝑤 = 𝑓𝑥𝑦 𝑥, 𝑦 𝑑𝑥𝑑𝑦𝑧𝑤𝐷
𝑓𝑧𝑤 𝑧, 𝑤 =𝜕2𝐹𝑧𝑤 𝑧 ,𝑤
𝜕𝑍𝜕𝑤
Definición: Jacobino𝐽 𝑥, 𝑦 de la transformación𝑍 = 𝑔 𝑥, 𝑦 𝑒 𝑊 = h(x, y)es:
𝐽 𝑥, 𝑦 =
𝑑𝑔
𝑑𝑥
𝑑𝑔
𝑑𝑦𝑑
𝑑𝑥
𝑑
𝑑𝑦
25
Teorema
Para determinar 𝑃𝑧𝑤 𝑧, 𝑤 se resuelve el sistema:
𝑍 = 𝑔 𝑥, 𝑦
𝑊 = h x, y → 𝑥, 𝑦 𝑒𝑛 𝑡𝑒𝑟𝑚𝑖𝑛𝑜𝑠 𝑑𝑒 𝑧, 𝑤.
Sean(𝑥1, 𝑦1), (𝑥2, 𝑦2), … , (𝑥𝑛 , 𝑦𝑛) 𝑇𝑜𝑑𝑎𝑠 𝑙𝑎𝑠 𝑠𝑜𝑙𝑢𝑐𝑖𝑜𝑛𝑒𝑠 𝑟𝑒𝑎𝑙𝑒𝑠.
𝑍 = 𝑔(𝑥1, 𝑦1) = 𝑔(𝑥2 , 𝑦2) = ⋯ = 𝑔(𝑥𝑛 , 𝑦𝑛)
𝑤 = (𝑥1, 𝑦1) = (𝑥2, 𝑦2) = ⋯ = (𝑥𝑛 , 𝑦𝑛)
𝑓𝑧𝑤 𝑧, 𝑤 = 𝑓𝑥𝑦 (𝑥𝑛 , 𝑦𝑛)
𝐽(𝑥𝑛 , 𝑦𝑛)
𝑛
𝑛=1
Ejemplo:
𝑅, 𝜃 → V.A Independientes
𝑓𝑅 𝑟 =𝑟
𝜍2𝑒
−𝑟2
2𝜍2 ; 𝑟 > 0
𝑓𝜃 𝜃 → 𝑢𝑛𝑖𝑓𝑜𝑟𝑚𝑒 𝑒𝑛 (−𝜋, 𝜋 )
Transformación:
𝑥e𝑦 𝑒𝑛 𝑡𝑒𝑟𝑚𝑖𝑛𝑜𝑠 𝑑𝑒 𝜃
𝑥 = 𝑅𝑐𝑜𝑠(𝜃)
𝑦 = 𝑅𝑠𝑒𝑛(𝜃)
1. 𝑓𝑥𝑦 𝑥 , 𝑦 = ? ?
Solución:
𝑅 𝑦 𝜃 𝑒𝑛 𝑡𝑒𝑟𝑚𝑖𝑛𝑜𝑠 𝑑𝑒 𝑥 𝑒𝑦
𝑥2 = 𝑅2𝑐𝑜𝑠2(𝜃)
𝑦2 = 𝑅2𝑠𝑒𝑛2(𝜃)
𝑆𝑢𝑚𝑎𝑛𝑑𝑜 𝑒𝑠𝑡𝑎𝑠 𝑑𝑜𝑠 𝑢𝑙𝑡𝑖𝑚𝑎𝑠 𝑒𝑐𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠, 𝑡𝑒𝑛𝑒𝑚𝑜𝑠 ∶
𝑥2 + 𝑦2 = 𝑅2𝑐𝑜𝑠2 𝜃 + 𝑅2𝑠𝑒𝑛2(𝜃)
26
𝑥2 + 𝑦2 = 𝑅2 𝑐𝑜𝑠2 𝜃 + 𝑠𝑒𝑛2(𝜃)
𝑝𝑜𝑟 𝑖𝑑𝑒𝑛𝑡𝑖𝑑𝑎𝑑 𝑃𝑖𝑡𝑎𝑔𝑜𝑟𝑖𝑐𝑎:
𝑥2 + 𝑦2 = 𝑅2 1
∴ 𝑅 = ± 𝑥2 + 𝑦2
𝑥
𝑦=
cos(𝜃)
𝑠𝑒𝑛(𝜃)
𝑥
𝑦=
1
𝑡𝑎𝑛(𝜃)
tan 𝜃 =𝑦
𝑥
∴ 𝜃 = arctan 𝑦
𝑥
𝑓𝑅,𝜃 𝑟, 𝜃 =𝑟
𝜍2𝑒
−𝑟2
2𝜍2 ∙1
2𝜋
𝐽 𝑟, 𝜃 =
𝑑𝑥
𝑑𝑟
𝑑𝑥
𝑑𝜃𝑑𝑦
𝑑𝑟
𝑑𝑦
𝑑𝜃
= cos(𝜃) −𝑅𝑠𝑒𝑛(𝜃)
𝑠𝑒𝑛(𝜃) 𝑅𝑐𝑜𝑠(𝜃) = 𝑅𝑐𝑜𝑠2 𝜃 + 𝑅𝑠𝑒𝑛2 𝜃 = 𝑅
𝐽 𝑟, 𝜃 = 𝑅
𝑓𝑥𝑦 𝑥, 𝑦 = 𝑓𝑟 ,𝜃 (𝑟, 𝜃)
𝐽(𝑟, 𝜃)
𝑁
𝑛=1
=𝑟𝑒
−𝑟2
2𝜃2
𝑟∙
1
2𝜋𝜃2
𝑓𝑥𝑦 𝑥, 𝑦 = 𝑒
− 𝑥 2+𝑦2
2𝜍2
2𝜋𝜍2+
𝑒−
𝑥 2+𝑦2
2𝜍2
2𝜋𝜍2
𝑓𝑥𝑦 𝑥, 𝑦 = 𝑒
− 𝑥 2+𝑦2
2𝜍2
𝜋𝜍2
27
Función Característica
Si z=g(x,y) → Φz(w) =E[egwz]
Si z =x+y → Φz(w) =E[egw(x+y)]
Si x e y son independientes
Φz(w) =E[egwx] E[egwy+ = Φx(w)*Φy(w)
Si z=x+y → fz(z) = 𝑓𝑥𝑦 (𝑧 − 𝑦, 𝑦)𝑑𝑦∞
−∞
𝑓𝑧 𝑧 = 𝑓𝑥 𝑧 − 𝑦 𝑓𝑦 𝑦 𝑑𝑦 = 𝑓𝑥 (𝑧) ⊛ 𝑓𝑦 (𝑧)∞
−∞
Probabilidad Condicional
𝐹𝑌 𝑦 𝑥 = 𝑥𝑘 =𝑃[𝑌 ≤ 𝑦, 𝑋 = 𝑥𝑘]
𝑃[𝑥 = 𝑥𝑘]
𝑓𝑌 𝑦 𝑥 = 𝑥𝑘 =𝑑 𝐹𝑌 𝑦 𝑥 = 𝑥𝑘
𝑑𝑥
𝑓𝑌 𝑦 𝑥 = 𝑥𝑘 =𝑓𝑋𝑌 (𝑥, 𝑦)
𝑓𝑥 (𝑥)
Si x e y son independientes
𝐹𝑌 𝑦 𝑥 = 𝑥𝑘 = 𝐹𝑌(𝑦)
Si x e y son V.A discretas
𝑃 𝑌 ≤ 𝑦, 𝑋 = 𝑥𝑘 = 𝑃[𝑋 = 𝑥𝑘 , 𝑌 = 𝑦]
𝑃[𝑥 = 𝑥𝑘]
Momentos Condicionales
𝐸 𝑦 𝑋 = 𝑥 = 𝑦𝑓𝑦 𝑦 𝑥 = 𝑥 𝑑𝑦 → 𝑉. 𝐴 𝐶𝑜𝑛𝑡𝑖𝑛𝑢𝑎∞
−∞
𝐸 𝑦 𝑋 = 𝑥 = 𝑦𝑗 𝑃 𝑦 𝑥 = 𝑥 → 𝑉. 𝐴 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑎
𝑁
𝑗 =1
28
Momentos Conjuntos
Dadas dos V.A x,y e fXY(x,y) y z=g(x,y)
𝐸 𝑔 𝑥, 𝑦 = 𝑔(𝑥, 𝑦)𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦∞
−∞
→ 𝑉. 𝐴 𝐶𝑜𝑛𝑡𝑖𝑛𝑢𝑎∞
−∞
𝐸 𝑔 𝑥, 𝑦 = 𝑔(𝑥, 𝑦)
𝑖 ,𝑘
𝑃 𝑥 = 𝑥𝑖 ; 𝑌 = 𝑦𝑘 → 𝑉. 𝐴 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑎
Covarianza
𝐶𝑋𝑌 = 𝐸 x − 𝑛𝑥 y − 𝑛𝑦 = 𝐸 𝑋𝑌 − 𝑛𝑥𝑛𝑦
Coeficiente de covarianza
𝛾 =𝐶𝑋𝑌
𝜍𝑥𝜍𝑦 ; 0 ≤ 𝑟 ≤ 1 → 𝐶𝑋𝑌 ≤ 𝜍𝑥𝜍𝑦
Teorema
Dos V.A se dice que son no correlacionadas si CXY =0
E[XY] =nXnY =E[X]E[Y]
Ortogonalidad
Dos V.A se dice que son ortogonales si el E[XY]=0
Teorema
Si dos V.A son independientes entre sí entonces son no correlacionadas.
29
Función Característica Conjunta
𝜙𝑋𝑌 𝑤1,𝑤2 = 𝐸 𝑒𝑔 𝑤1𝑋+𝑤2𝑌 = 𝑓𝑋𝑌 𝑥, 𝑦 𝑒𝑔 𝑤1𝑋+𝑤2𝑌 𝑑𝑥𝑑𝑦∞
−∞
∞
−∞
Por consiguiente 𝜙𝑋𝑌 𝑤1,𝑤2 es la transformada de Fourier de 𝑓𝑋𝑌 𝑥, 𝑦
Ejemplo:
Sea(X,Y) una variable aleatoria bidimensional con función de densidad
𝑓𝑥 ,𝑦 𝑋, 𝑌 = 1 ; 𝑠𝑖 0 ≤ 𝑥 ≤ 1, 0 ≤ 𝑦 ≤ 1
0 ; 𝑒𝑛 𝑒𝑙 𝑟𝑒𝑠𝑡𝑜
Determinar:
La función de densidad de S= (X + Y)/ 2.
La covarianza entre S y X.
La 𝑃(𝑋 ≤ 0.5 , 𝑠 ≤ 1).
Solución:
Si 𝑆 ∈ 0 ,1
2
𝑃 𝑆 ≤ 𝑠 = 𝑃(0 ≤ 𝑋 ≤ 2𝑠 , 0 ≤ 𝑌 ≤ 2𝑠 − 𝑥)
𝑃 𝑆 ≤ 𝑠 = 1 𝑑𝑦 𝑑𝑥2𝑠−𝑥
0
2𝑠
0
= 2𝑠 − 𝑥 𝑑𝑥2𝑠
0
𝑃 𝑆 ≤ 𝑠 = 2 𝑠2
Si 𝑆 ∈ 1
2 , 1
𝑃 𝑆 ≤ 𝑠 = 1 − 𝑃 𝑆 > 𝑠 = 1 − 𝑃(2𝑠 − 1 ≤ 𝑋 ≤ 1 , 2𝑠 − 𝑥 ≤ 𝑌 ≤ 1)
𝑃 𝑆 ≤ 𝑠 = 1 − 1 𝑑𝑦 𝑑𝑥1
2𝑠−𝑥
1
2𝑠−1
𝑃 𝑆 ≤ 𝑠 = 1 − 2 𝑠 − 1 2
30
𝐹𝑠 𝑠 =
0 ; 𝑠 < 0
2𝑠2 ; 0 ≤ 𝑠 < 1/2
1 − 2 𝑠 − 1 2 ; 1
2≤ 𝑠 < 1
1 ; 𝑠 ≥ 1
𝑓𝑠 𝑠 =
4𝑠 ; 0 ≤ 𝑠 < 1/2
−4 𝑠 − 1 ; 1
2≤ 𝑠 < 1
0 ; 𝑅𝐸𝑆𝑇𝑂
b)
𝐶𝑜𝑣 𝑋, 𝑆 = 𝐸 𝑋𝑆 − 𝐸 𝑋 𝐸 𝑆 = 𝐸 𝑋 𝑋 + 𝑌
2 − 𝐸 𝑋 𝐸 𝑆
𝐶𝑜𝑣 𝑋, 𝑆 =1
2𝐸 𝑋2 +
1
2𝐸 𝑋𝑌 − 𝐸 𝑋 𝐸 𝑆
𝐸 𝑋 = 𝑥 𝑑𝑦 𝑑𝑥1
0
1
0
=1
2
𝐸 𝑋2 = 𝑥2 𝑑𝑦 𝑑𝑥1
0
1
0
=1
3
𝐸 𝑋𝑌 = 𝑥𝑦 𝑑𝑦 𝑑𝑥1
0
1
0
=1
4
𝐸 𝑆 =1
2𝐸 𝑋 +
1
2𝐸 𝑌 =
1
2
𝐶𝑜𝑣 𝑋, 𝑆 =1
24
Esto podemos resolverlo graficando la zona que nos
piden
𝑃 𝑥 ≤ 0.5 , 𝑥 + 𝑦 ≤ 2 =1
2
31
Secuencia de Variables Aleatorias
Sean 𝑛 variables aleatorias X1 , X2, … , Xn , entonces
𝐹X1 ,X2 ,…,Xn X1 , X2 , … , Xn = P(X1 ≤ x1 , X2 ≤ x2, … , Xn ≤ xn )
𝑓𝑋1 ,𝑋2 ,…,𝑋𝑛 𝑋1, 𝑋2, … , 𝑋𝑛 =
𝑑𝑛𝐹𝑋1 ,𝑋2 ,…,𝑋𝑛(𝑋1, 𝑋2, … , 𝑋𝑛)
𝑑𝑋1, 𝑑𝑋2, … , 𝑑𝑋𝑛
… 𝑓X1 ,X2 ,…,Xn X1 , X2, … , Xn dX1, dX2, … , dXn
∞
−∞
∞
−∞
∞
−∞
∞
−∞
= 1
𝑃 X1, X2 , … , Xn ∈ 𝐷𝑧 = … 𝑓X1 ,X2 ,…,Xn(X1, X2 , … , Xn )dX1, dX2, … , dXn
𝐷𝑧
Densidades Marginales
𝐹𝑋1 ,𝑋3 𝑋1, 𝑋3 = 𝐹𝑋1 ,𝑋2 ,𝑋3 ,𝑋4
𝑋1, ∞, 𝑋3, ∞
𝑓𝑋1 ,𝑋3 𝑋1, 𝑋3 = 𝑓𝑋1 ,𝑋2 ,𝑋3 ,𝑋4
𝑋1, 𝑋2, 𝑋3, 𝑋4 𝑑𝑋2𝑑𝑋4
∞
−∞
∞
−∞
Densidad Condicional
La distribución marginal de X es simplemente la ley de probabilidad de X haciendo caso
omiso de la información referente a Y
𝑓 𝑋1, 𝑋2, … , 𝑋𝑘 𝑋𝑘+1, 𝑋𝑘+2, … , 𝑋𝑛 =𝑓(𝑋1, 𝑋2, 𝑋𝑘+1, 𝑋𝑘+2, … , 𝑋𝑛)
𝑓(𝑋𝑘+1 , 𝑋𝑘+2, … , 𝑋𝑛)
32
Ejemplo:
𝑓 𝑋1 𝑋2, 𝑋3 =𝑓(𝑋1, 𝑋2, 𝑋3)
𝑓(𝑋2, 𝑋3)
𝐹 𝑋1 𝑋2, 𝑋3 = 𝑓 ∝1 𝑋2, 𝑋3 𝑋1
−∞
𝑑 ∝1
Ejemplo:
𝑓 𝑋1, 𝑋3 𝑋2, 𝑋4 =𝑓(𝑋1, 𝑋2, 𝑋3, 𝑋4)
𝑓(𝑋2, 𝑋4)
𝐹 𝑋1, 𝑋3 𝑋2, 𝑋4 = 𝑓 ∝1, ∝3 𝑋2, 𝑋4 𝑑 ∝1
𝑋3
−∞
𝑋1
−∞
𝑑 ∝3
Regla de la Cadena
𝑓 𝑋1, 𝑋2, 𝑋3, … , 𝑋𝑛
= 𝑓 𝑋𝑛 𝑋𝑛−1, 𝑋𝑛−2, … , 𝑋1 ∗ 𝑓 𝑋𝑛−1 𝑋𝑛−2, 𝑋𝑛−3, … , 𝑋1 ∗ 𝑓 𝑋𝑛−2 𝑋𝑛−3, 𝑋𝑛−4, … , 𝑋1 ∗ …
∗ 𝑓 𝑋2 𝑋1 ∗ 𝑓 𝑋1
Remoción de Variables
Dado 𝑓 𝑋1, 𝑋2, 𝑋3 𝑋4, 𝑋5 ;
Notación:
𝑋1, 𝑋2, 𝑋3 => 𝑉. 𝐴. 𝑑𝑒 𝑙𝑎 𝑖𝑧𝑞𝑢𝑖𝑒𝑟𝑑𝑎
𝑋4, 𝑋5 => 𝑉. 𝐴. 𝑑𝑒 𝑙𝑎 𝑑𝑒𝑟𝑒𝑐𝑎
Para remover una V.A. de la “derecha” se multiplica por la densidad condicional de las variables
que desea remover, dado el resto de las variables de la derecha y se integra con respecto a ellas
de −∞ 𝑎 ∞
Para remover una V.A. de la “izquierda” se integra con respecto a esa variable.
33
Ejemplo:
Dado 𝑓 𝑋1, 𝑋2 𝑋3 , remover 𝑋2
𝑓 𝑋1 𝑋3 = 𝑓 𝑋1, 𝑋2 𝑋3 𝑑𝑋2
∞
−∞
Dado 𝑓 𝑋1 𝑋2, 𝑋3, 𝑋4 , hallar 𝑓 𝑋1 𝑋4
𝑓 𝑋1 𝑋4 = 𝑓 𝑋1 𝑋2, 𝑋3, 𝑋4 ∗ 𝑓 𝑋2, 𝑋3 𝑋4 𝑑𝑋2𝑑𝑋3
∞
−∞
∞
−∞
Variables Aleatorias Independientes
Supongamos que "X" e "Y" son variables aleatorias discretas. Si los eventos X = x / Y = y son
variables aleatorias independientes. En tal caso: P(X = x, Y = y) = P( X = x) P ( Y = y).
De manera equivalente: f(x,y) = f1(x).f2(y).
De manera general:
𝐹𝑋1 ,𝑋2 ,…,𝑋𝑛 𝑋1 , 𝑋2, … , 𝑋𝑛 = 𝐹𝑋1
𝑋1 ∗ 𝐹𝑋2 𝑋2 ∗ …∗ 𝐹𝑋𝑛
𝑋𝑛
𝑓𝑋1 ,𝑋2 ,…,𝑋𝑛 𝑋1 , 𝑋2, … , 𝑋𝑛 = 𝑓𝑋1
𝑋1 ∗ 𝑓𝑋2 𝑋2 ∗ …∗ 𝑓𝑋𝑛
𝑋𝑛
Suma de Variables Aleatorias
Sean 𝑋1, 𝑋2, … , 𝑋𝑛 una secuencia de variables aleatorias.
En forma particular analizaremos 𝑆𝑛 = 𝑋1 + 𝑋2
𝐸 𝑆𝑛 = 𝐸 𝑋1 + 𝑋2 = 𝐸 𝑋1 + 𝐸[𝑋2]
𝑉𝑎𝑟 𝑆𝑛 = 𝑉𝑎𝑟 𝑋1 + 𝑉𝑎𝑟 𝑋2 + 2𝐶𝑜𝑣(𝑋1, 𝑋2)
En forma general
𝐸 𝑆𝑛 = 𝐸 𝑋1 + 𝐸 𝑋2 + ⋯ + 𝐸[𝑋𝑛 ]
𝑉𝑎𝑟 𝑆𝑛 = 𝑉𝑎𝑟(𝑋𝑘)
𝑛
𝑘=1
+ 𝐶𝑜𝑣(𝑋𝑗 , 𝑋𝑘)
𝑛
𝑘=1
𝑛
𝑗 =1
34
Teorema del Limite Central
Sea 𝑆𝑛 la suma de 𝑛 variables aleatorias independientes con igual distribución con
𝐸 𝑋 = 𝑢 y 𝑉𝑎𝑟 𝑋 = 𝜍2
Siendo
𝑍𝑛 =𝑆𝑛 − 𝐸 𝑆𝑛
𝜍𝑆𝑛
=𝑆𝑛 − 𝑛𝑢
𝜍 𝑛
entonces
lim𝑛→∞
𝐹 𝑍𝑛 ≤ 𝑍 = 𝑒−𝑋2
2 𝑑𝑋𝑍
−∞
Nota: Se aplica independientemente de la distribución de las variables aleatorias equis. Es decir
que no importa si esta es binomial, exponencial, geométrica, etc.
Ejemplo:
Suponga que las ordenes en un comedor son variables aleatorias idénticamente
distribuidas con media igual a $8 y una desviación estándar de $2. Determine:
a) La probabilidad de que los primeros 100 clientes gasten un total de más de $860
b) La probabilidad de que los primeros 100 clientes gasten un total entre $760 y $840
c) Después de cuantas ordenes se puede estar un 95% seguro que el total gastado por todos
los clientes es mas de $1000
Solución:
𝑛 = 8 ; 𝜍 = 2
a)
𝑍𝑛 =860 − 100(8)
2 (10)= 3
Entonces
𝑃 𝑧 > 3 = 0.9987
b)
𝑍𝑛 =840 − 100(8)
2 (10)= 2
35
𝑍𝑛 =760 − 100(8)
2 (10)= −2
Entonces
𝑃 2 > 𝑧 > −2 = 0.544
c)
𝑍𝑛 =1000 − 𝑛(8)
2 ( 𝑛)
𝑃 𝑧 <1000 − 8𝑛
2 𝑛 = 0.95
Entonces
1000 − 8𝑛
2 𝑛= 1.6
1000000 − 16000𝑛 + 64𝑛2 = 10.24𝑛
1𝑀 − 16𝐾𝑛 − 10.24𝑛 + 64𝑛2 = 0
𝑛 =16010.24 ± 256327784.9 − 4 1𝑀 (64)
2(64)=
16010.24 ± 572.5
128= {
120.6129.5
→ 𝑛 = 120.6
Redondeando
𝑛 = 121 𝑜𝑟𝑑𝑒𝑛𝑒𝑠
Ejemplo:
Un estudiante usa lápices cuya duración es una variable aleatoria exponencial con media
de una semana. Use el teorema del límite central para determinar el mínimo numero de lápices
que debería comprar al inicio del semestre (15 semanas) para tener una probabilidad de 0.99 de
no quedarse sin lápices durante el semestre.
Solución:
𝑛 𝑙𝑎𝑝𝑖𝑐𝑒𝑠 𝑝𝑎𝑟𝑎 𝑆𝑛 15 𝑠𝑒𝑚𝑎𝑛𝑎𝑠
𝑢 = 1 ; 𝜍 = 1 ; 𝑆𝑛 = 15
36
𝑃 𝑍 <15 − 𝑛
𝑛 = 0.99
15 − 𝑛
𝑛= 2.325
225 − 30𝑛 + 𝑛2 = 5.4056𝑛
225 − 35.4056𝑛 + 𝑛2 = 0
𝑛1 = 8.3
𝑛2 = 27.1
Entonces el número de lápices mínimo es 9.
Procesos Aleatorios o Estocasticos
Un proceso estocástico es un concepto matemático que sirve para caracterizar una
sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable,
generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función
de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no.
Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios
constituye un proceso estocástico.
,X t
→ V.A. que nos proporciona información
𝐹𝑋 𝑡 𝑋(𝑡) = 𝑃 𝑋(𝑡) ≤ 𝑥(𝑡)
37
Ejemplo:
Hallar 𝑢𝑋 𝑡 y 𝑣𝑎𝑟 𝑋 𝑡 del siguiente proceso estocástico, si se sabe que A es una variable
aleatoria uniforme con intervalo (0,2)
𝑋 𝑡, 𝐴 = 𝐴𝑆𝑒𝑛(𝑤𝑡)
𝐴 → 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝐴𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎 𝑈𝑛𝑖𝑓𝑜𝑟𝑚𝑒 𝑉. 𝐴. 𝑈. → (0,2)
Se asume que wt es constante.
1era Forma de Resolverlo:
𝑢𝑋(𝑡) = 𝐸 𝑋 𝑡 = 𝐸 𝐴𝑆𝑒𝑛 𝑤𝑡 = 𝑆𝑒𝑛 𝑤𝑡 𝐸 𝐴 = 𝑆𝑒𝑛 𝑤𝑡 𝐴0.5∞
−∞
𝑑𝐴
= 𝑆𝑒𝑛 𝑤𝑡 0.5𝐴𝑑𝐴2
0
= 𝑆𝑒𝑛 𝑤𝑡 1
20.5𝐴2|0
2 = 𝑆𝑒𝑛 𝑤𝑡 0.5 2 2
2= 𝑆𝑒𝑛(𝑤𝑡)
𝑣𝑎𝑟 𝑋 𝑡 = 𝐸 𝑋 𝑡 − 𝑢𝑋 𝑡 2 = 𝐸 𝑋 𝑡 2 − 𝑢𝑋(𝑡)
2 = 𝐸 𝐴2𝑆𝑒𝑛2 𝑤𝑡 − 𝑆𝑒𝑛2 𝑤𝑡
= 𝑆𝑒𝑛2 𝑤𝑡 𝐸 𝐴2 − 𝑆𝑒𝑛2 𝑤𝑡 = 𝑆𝑒𝑛2 𝑤𝑡 𝐴20.5 𝑑𝐴2
0
− 𝑆𝑒𝑛2 𝑤𝑡
= 𝑆𝑒𝑛2 𝑤𝑡 0.5
3𝐴3|0
2 − 𝑆𝑒𝑛2 𝑤𝑡 = 𝑆𝑒𝑛2 𝑤𝑡 0.5 (8)
3 − 𝑆𝑒𝑛2 𝑤𝑡
= 4
3𝑆𝑒𝑛2 𝑤𝑡 − 𝑆𝑒𝑛2 𝑤𝑡 =
1
3𝑆𝑒𝑛2(𝑤𝑡)
2da Forma de Resolverlo:
𝑓𝐴 𝑎 = 0,5 ; 0 ≤ 𝑎 ≤ 2
0 ; 𝑜𝑡𝑟𝑜 𝑎
𝐹𝐴 𝑎 = 1 ; 𝑎 ≥ 2
0.5𝐴 ; 0 ≤ 𝑎 < 20 ; 𝑎 < 0
38
𝐹𝑋 𝑡 (𝑋 𝑡 ) = 𝑃 𝑋 𝑡 ≤ 𝑥 𝑡 = 𝑃 𝐴𝑆𝑒𝑛 𝑤𝑡 ≤ 𝑥 𝑡 = 𝑃 𝐴 ≤𝑥 𝑡
𝑆𝑒𝑛 𝑤𝑡 = 𝐹𝐴
𝑥 𝑡
𝑆𝑒𝑛 𝑤𝑡
𝐹𝑋 𝑡 =
1 ; 𝑋 𝑡 ≥ 2𝑆𝑒𝑛(𝑤𝑡)
0.5 𝑋(𝑡)
𝑆𝑒𝑛(𝑤𝑡) ; 0 ≤ 𝑋(𝑡) < 2𝑆𝑒𝑛(𝑤𝑡)
0 ; 𝑋 𝑡 < 0
Para obtener los límites hacemos lo siguiente:
𝑋 𝑡 = 𝐴𝑆𝑒𝑛 𝑤𝑡 ; 𝐴 ∈ 0,2 → 𝑋 𝑡 ∈ 0,2𝑆𝑒𝑛 𝑤𝑡
Luego derivamos 𝐹𝑋(𝑡) para obtener 𝑓𝑋(𝑡):
𝑓𝑋(𝑡) =
0.5
𝑆𝑒𝑛(𝑤𝑡) ; 0 ≤ 𝑋(𝑡) ≤ 2𝑆𝑒𝑛(𝑤𝑡)
0 ; 𝑂𝑡𝑟𝑜 𝑋(𝑡)
Con lo que podemos hallar 𝑢𝑋(𝑡):
𝑢𝑋(𝑡) = 𝐸 𝑋 𝑡 = 𝑋 𝑡 0.5
𝑆𝑒𝑛 𝑤𝑡 𝑑𝑋 𝑡
2𝑆𝑒𝑛 (𝑤𝑡 )
0
=𝑋(𝑡)2
4𝑆𝑒𝑛(𝑤𝑡)|0
2𝑆𝑒𝑛 (𝑤𝑡 )=
4𝑆𝑒𝑛2(𝑤𝑡)
4𝑆𝑒𝑛(𝑤𝑡)
= 𝑆𝑒𝑛(𝑤𝑡)
Igual procedimiento se puede realizar para obtener la varianza de X(t).
Autocorrelación
La autocorrelación es la correlación cruzada de un señal consigo misma.
La función de autocorrelación resulta de gran utilidad para encontrar patrones repetitivos
dentro de una señal, como por ejemplo, la periodicidad de una señal enmascarada bajo el ruido o
para identificar la frecuencia fundamental de una señal que no contiene dicha componente, pero
aparecen numerosas frecuencias armónicas de esta.
𝑅𝑋 𝑡1 , 𝑡2 = 𝐸[𝑋 𝑡1 , 𝑋(𝑡2)]
39
Crosscorrelacion
La correlación cruzada es una medida de la similitud de dos formas de onda como una
función de un desfase aplicado a uno de ellos. Esto también se conoce como un deslizamiento
producto punto o corredera interior-producto.
𝑅𝑋𝑌 𝑡1 , 𝑡2 = 𝐸[𝑋 𝑡1 , 𝑌(𝑡2)]
Autocovarianza
Es el cálculo de la crosscovarianza de un proceso consigo mismo.
𝐶𝑋 𝑡1 , 𝑡2 = 𝐸[ 𝑋 𝑡1 − 𝑚𝑋(𝑡1) 𝑋 𝑡2 − 𝑚𝑋(𝑡2) ]
Crosscovarianza
El término covarianza transversal se utiliza para referirse a la covarianza cov (X, Y) entre
dos vectores aleatorios X y Y, con el fin de distinguir que el concepto de la "covarianza" de un
vector X al azar, que se entiende ser la matriz de covarianzas entre los componentes escalares de
X.
𝐶𝑋𝑌 𝑡1 , 𝑡2 = 𝐸[ 𝑋 𝑡1 − 𝑚𝑋(𝑡1) 𝑌 𝑡2 − 𝑚𝑌(𝑡2) ]
Simplificaciones para tener en cuenta:
𝐶𝑋 𝑡1 , 𝑡2 = 𝑅𝑋 𝑡1, 𝑡2 − 𝑚𝑋 𝑡1 𝑚𝑋(𝑡2)
𝑉𝑎𝑟 𝑋 𝑡 = 𝐸 𝑋 𝑡 − 𝑚𝑋 𝑡 2 = 𝐶𝑋 𝑡, 𝑡 = 𝐸 𝑋 𝑡 2 − 𝐸[𝑋(𝑡)]2 = 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝐸 𝑋 𝑡 2
= 𝑅𝑋(𝑡, 𝑡) − 𝐸[𝑋(𝑡)]2
40
Coeficiente de Correlación
El coeficiente de correlación de Pearson es un índice que mide la relación lineal entre dos
variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es
independiente de la escala de medida de las variables.
𝜌𝑋 𝑡1, 𝑡2 =𝐶𝑋(𝑡1 , 𝑡2)
𝐶𝑋(𝑡1 , 𝑡1) 𝐶𝑋 (𝑡2 , 𝑡2) ; 𝜌𝑋(𝑡1, 𝑡2) ≤ 1
Ejemplo:
Dado un proceso estocástico X(t) y la variable aleatoria 𝜃. Hallar E[X(t)] y 𝑅𝑋(𝑡1 , 𝑡2)
𝑋 𝑡 = 𝐴𝐶𝑜𝑠 𝑤𝑡 + 𝜃
𝜃 => 𝑉. 𝐴. 𝑈𝑛𝑖𝑓𝑜𝑟𝑚𝑒 0, 2𝜋
𝐴, 𝑤 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠
Solución:
𝜃 =1
2𝜋
𝐸 𝑋 𝑡 = 𝐸 𝐴𝐶𝑜𝑠 𝑤𝑡 + 𝜃 = 𝐸 𝐴𝐶𝑜𝑠 𝑤𝑡 𝐶𝑜𝑠𝜃 − 𝐴𝑆𝑒𝑛 𝑤𝑡 𝑆𝑒𝑛𝜃
= 𝐴𝐶𝑜𝑠 𝑤𝑡 𝐸 𝐶𝑜𝑠𝜃 − 𝐴𝑆𝑒𝑛 𝑤𝑡 𝐸 𝑆𝑒𝑛𝜃
= 𝐴𝐶𝑜𝑠 𝑤𝑡 𝐶𝑜𝑠𝜃2𝜋
0
1
2𝜋𝑑𝜃 − 𝐴𝑆𝑒𝑛 𝑤𝑡 𝑆𝑒𝑛𝜃
2𝜋
0
1
2𝜋𝑑𝜃
= 𝐴𝐶𝑜𝑠 𝑤𝑡 1
2𝜋 𝑆𝑒𝑛𝜃 0
2𝜋 + 𝐴𝑆𝑒𝑛 𝑤𝑡 1
2𝜋 𝐶𝑜𝑠𝜃 0
2𝜋 = 0
𝑅𝑋 𝑡1 , 𝑡2 = 𝐸 𝑋 𝑡1 𝑋 𝑡2
= 𝐸 𝐴𝐶𝑜𝑠 𝑤𝑡1 𝐶𝑜𝑠𝜃 − 𝐴𝑆𝑒𝑛 𝑤𝑡1 𝑆𝑒𝑛𝜃 𝐴𝐶𝑜𝑠 𝑤𝑡2 𝐶𝑜𝑠𝜃 − 𝐴𝑆𝑒𝑛 𝑤𝑡2 𝑆𝑒𝑛𝜃
= 𝐸 𝐴2𝐶𝑜𝑠2𝜃𝐶𝑜𝑠 𝑤𝑡1 𝐶𝑜𝑠 𝑤𝑡2 + 𝐴2𝑆𝑒𝑛2𝜃𝑆𝑒𝑛 𝑤𝑡1 𝑆𝑒𝑛 𝑤𝑡2
− 𝐴2𝐶𝑜𝑠 𝑤𝑡1 𝑆𝑒𝑛 𝑤𝑡2 𝐶𝑜𝑠𝜃𝑆𝑒𝑛𝜃 − 𝐴2𝑆𝑒𝑛 𝑤𝑡1 𝐶𝑜𝑠 𝑤𝑡2 𝐶𝑜𝑠𝜃𝑆𝑒𝑛𝜃
= 𝐴2𝐶𝑜𝑠 𝑤𝑡1 𝐶𝑜𝑠 𝑤𝑡2 𝐸 𝐶𝑜𝑠2𝜃 + 𝐴2𝑆𝑒𝑛 𝑤𝑡1 𝑆𝑒𝑛 𝑤𝑡2 𝐸 𝑆𝑒𝑛2𝜃
− 𝐴2𝐶𝑜𝑠 𝑤𝑡1 𝑆𝑒𝑛 𝑤𝑡2 + 𝐴2𝑆𝑒𝑛 𝑤𝑡1 𝐶𝑜𝑠 𝑤𝑡2 𝐸 𝐶𝑜𝑠𝜃𝑆𝑒𝑛𝜃
41
𝐸 𝐶𝑜𝑠2𝜃 = 1
2𝜋
1
2+
1
2𝐶𝑜𝑠2𝜃 𝑑𝜃
2𝜋
0
=1
2𝜋[1
2𝜃 +
1
4𝑆𝑒𝑛2𝜃]0
2𝜋 =1
2𝜋𝜋 =
1
2
𝐸 𝑆𝑒𝑛2𝜃 = 1
2𝜋
1
2−
1
2𝐶𝑜𝑠2𝜃 𝑑𝜃
2𝜋
0
=1
2𝜋[1
2𝜃 −
1
4𝑆𝑒𝑛2𝜃]0
2𝜋 =1
2𝜋𝜋 =
1
2
𝐸 𝑆𝑒𝑛𝜃𝐶𝑜𝑠𝜃 = 1
2𝜋𝑆𝑒𝑛𝜃𝐶𝑜𝑠𝜃𝑑𝜃
2𝜋
0
=1
4𝜋 𝑆𝑒𝑛2𝜃 0
2𝜋 = 0
Entonces
𝑅𝑋 𝑡1 , 𝑡2 =𝐴2
2𝐶𝑜𝑠 𝑤𝑡1 𝐶𝑜𝑠 𝑤𝑡2 +
𝐴2
2𝑆𝑒𝑛 𝑤𝑡1 𝑆𝑒𝑛 𝑤𝑡2 =
𝐴2
2𝐶𝑜𝑠 𝑤𝑡1 − 𝑤𝑡2
=𝐴2
2𝐶𝑜𝑠(𝑤 𝑡1 − 𝑡2 )
Proceso Estacionario en Sentido Amplio (w.s.s.)
Se dice que un proceso estocástico es estacionario en sentido amplio cuando cumple con las
dos siguientes condiciones:
1. 𝐸 𝑋 𝑡 = 𝑚𝑋 = 𝐶𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 (sin 𝑡)
2. 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝜏 = 𝑅𝑋 𝜏 ; 𝑒𝑠 𝑑𝑒𝑐𝑖𝑟, 𝑠𝑜𝑙𝑜 𝑒𝑛 𝑓𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒 𝜏 (sin 𝑡)
Propiedades de un P.E.S.A. (w.s.s.)
a) 𝑅𝑋 0 = 𝐸[𝑋(𝑡)2]
b) 𝑅𝑋 𝜏 = 𝑅𝑋 −𝜏
c) 𝑅𝑋(𝜏) ≤ 𝑅𝑋 0 ; lim𝜏→∞ 𝑅𝑋(𝜏) = (𝑢𝑋)2
d) La grafica de 𝑅𝑋(𝜏) nos da información sobre el comportamiento temporal del proceso.
Nota: en algunos problemas utilizaremos 𝜏 = 𝑡1 − 𝑡2
42
Ejemplo:
Calcular:
a) Media y autocorrelación de X(t) y Y(t)
b) La varianza de X(t) y la varianza entre X(1) y X(2)
c) Función de probabilidad y de densidad de X(t); t>0
d) P(Y(1)≤1)
Si se conoce lo siguiente:
A y B => Variables Aleatorias Independientes
A => Distribución exponencial con media 1
B => Distribución uniforme (0,1)
X(t) y Y(t) son procesos estocásticos de la siguiente manera:
𝑋 𝑡 = 𝑒−𝐴𝑡 ; 𝑡 > 0
𝑌 𝑡 = 𝑒−𝐴𝑡+𝐵 ; 𝑡 > 0
Solución:
𝑓𝐵 = 1 ; 𝐵 ∈ 0,1
𝐹𝐵 = 𝐵 ; 𝐵 ∈ 0,1
𝑓𝐴 = 𝑒−𝐴 ; 𝐴 ∈ 0, ∞
𝐹𝐴 = 1 − 𝑒−𝐴 ; 𝐴 ∈ (0, ∞)
a)
𝐸 𝑋 𝑡 = 𝐸 𝑒−𝐴𝑡 = 𝑒−𝐴𝑡𝑒−𝐴𝑑𝐴∞
0
= 𝑒−𝐴 𝑡+1 𝑑𝐴∞
0
= −1
𝑡 + 1𝑒−𝐴 𝑡+1
0∞
=1
𝑡 + 1
𝐸 𝑌 𝑡 = 𝐸 𝑒−𝐴𝑡+𝐵 = 𝐸 𝑒−𝐴𝑡𝑒𝐵 = 𝑒−𝐴𝑡𝑒𝐵𝑒−𝐴𝑑𝐴𝑑𝐵∞
0
1
0
= 𝑒𝐵 𝑒−𝐴(𝑡+1)𝑑𝐴𝑑𝐵∞
0
1
0
= 𝑒𝐵 −1
𝑡 + 1𝑒−𝐴(𝑡+1)
∞0
𝑑𝐵1
0
=1
𝑡 + 1 𝑒𝐵𝑑𝐵
1
0
=1
𝑡 + 1𝑒𝐵
01
=𝑒
𝑡 + 1−
1
𝑡 + 1
=𝑒 − 1
𝑡 + 1
43
𝑅𝑋 𝑡1 , 𝑡2 = 𝐸 𝑋 𝑡1 𝑋 𝑡2 = 𝐸 𝑒−𝐴𝑡1𝑒−𝐴𝑡2 = 𝐸 𝑒−𝐴 𝑡1+𝑡2 = 𝑒−𝐴 𝑡1+𝑡2 𝑒−𝐴𝑑𝐴∞
0
= 𝑒−𝐴 𝑡1+𝑡2+1 𝑑𝐴∞
0
= −1
𝑡1 + 𝑡2 + 1𝑒−𝐴 𝑡1+𝑡2+1 ∞
0=
1
𝑡1 + 𝑡2 + 1
𝑅𝑌 𝑡1, 𝑡2 = 𝐸 𝑌 𝑡1 𝑌 𝑡2 = 𝐸 𝑒−𝐴𝑡1+𝐵𝑒−𝐴𝑡2+𝐵 = 𝐸 𝑒−𝐴 𝑡1+𝑡2 +2𝐵
= 𝑒−𝐴(𝑡1+𝑡2)𝑒2𝐵𝑒−𝐴𝑑𝐴𝑑𝐵∞
0
1
0
= 𝑒2𝐵 𝑒−𝐴(𝑡1+𝑡2+1)𝑑𝐴∞
0
𝑑𝐵1
0
= 𝑒2𝐵 −1
𝑡1 + 𝑡2 + 1𝑒−𝐴(𝑡1+𝑡2+1)
0
∞
𝑑𝐵1
0
=1
𝑡1 + 𝑡2 + 1 1
2𝑒2𝐵
0
1
=𝑒2 − 1
2(𝑡1 + 𝑡2 + 1)
b)
𝑉𝑎𝑟 𝑋 𝑡 = 𝐸 𝑋 𝑡 − 𝑚𝑋(𝑡) 2 = 𝑅𝑋 𝑡, 𝑡 − 𝐸[𝑋(𝑡)] 2
𝑅𝑋 𝑡, 𝑡 =1
2𝑡 + 1 ; 𝐸[𝑋(𝑡)] 2 =
1
(𝑡 + 1)2
Entonces
𝑉𝑎𝑟 𝑋 𝑡 =1
2𝑡 + 1−
1
(𝑡 + 1)2
𝐶𝑜𝑣 𝑋 1 𝑋 2 = 𝐸 𝑋 1 − 𝑛𝑋 1 𝑋 2 − 𝑛𝑋 2 = 𝐸 𝑋 1 𝑋 2 − 𝑛𝑋(1)𝑛𝑋(2)
𝐸 𝑋 1 𝑋 2 = 𝐸 𝑒−𝐴𝑒−2𝐴 = 𝐸 𝑒−3𝐴 = 𝑒−3𝐴𝑒−𝐴𝑑𝐴∞
0
= 𝑒−4𝐴𝑑𝐴∞
0
=1
4
𝐸 𝑋 1 =1
2 ; 𝐸 𝑋 2 =
1
3
Entonces
𝐶𝑜𝑣 𝑋 1 𝑋 2 =1
4−
1
2
1
3=
6 − 4
24=
2
24=
1
12
c)
44
𝐹𝑋 𝑋 𝑡 = 𝑃 𝑋 𝑡 ≤ 𝑥 𝑡 = 𝑃 𝑒−𝐴𝑡 ≤ 𝑥 𝑡 = 𝑃 −𝐴𝑡 ≤ 𝑙𝑛𝑥 𝑡 = 𝑃 𝐴 ≥ −𝑙𝑛𝑥 𝑡
𝑡
= 1 − 𝐹𝐴 −𝑙𝑛𝑥 𝑡
𝑡
𝐹𝐴 = −𝑒−𝐴 ; 𝐴 > 0
0 ; 𝐴 < 0
𝐹𝑋 =
1 ; 𝑋(𝑡) ≥ 1
1 + 𝑒𝑙𝑛𝑋 (𝑡)
𝑡 = 1 + 𝑒ln𝑋(𝑡)1𝑡 = 1 + 𝑋(𝑡)
1𝑡 ; 0 ≤ 𝑋(𝑡) < 1
0 ; 𝑋(𝑡) < 0
𝑓𝑋 = 1
𝑡𝑋(𝑡)
1𝑡−1 ; 0 ≤ 𝑋 𝑡 ≤ 1
0 ; 𝑜𝑡𝑟𝑜 𝑋
d)
𝑃 𝑌 1 ≤ 1 = 𝑃 𝑒−𝐴+𝐵 ≤ 1 = 𝑃 −𝐴 + 𝐵 ≤ 0 = 𝑃 𝐵 ≤ 𝐴 = 𝐹𝐴,𝐵(𝐴)
𝑓𝐴 = 𝑒−𝐴 ; 𝑓𝐵 = 1 ; 𝐹𝐴 = 1 − 𝑒−𝐴 ; 𝐹𝐵 = 𝐵 ; 𝐹𝐴,𝐵 = 𝐵(1 − 𝑒−𝐴)
𝐹𝐴,𝐵 = 𝑒−𝐴𝑑𝐴∞
𝐵
𝑑𝐵1
0
= −𝑒−𝐴 𝐵∞𝑑𝐵
1
0
= 𝑒−𝐵𝑑𝐵1
0
= −𝑒𝐵01
= −𝑒−1 + 1 = 1 −1
𝑒
45
Ejemplo:
Hallar:
a) 𝐸 𝑌1 𝑡
b) 𝑅𝑌1 𝑡, 𝑡 + 𝜏
c) 𝐸 𝑌2 𝑡
d) 𝑅𝑌2 𝑡, 𝑡 + 𝜏
Si se conoce que X(t) es w.s.s. con 𝑅𝑋 𝜏 = 𝑒− 𝜏 ; 𝜏 ∈ 𝑅
𝑌1 𝑡 = 𝑋 𝑡 𝐶𝑜𝑠 𝑡
𝑌2 𝑡 = 𝑋 𝑡 − 𝑋(𝑡 − 𝑑)
Solución:
a)
𝐸 𝑌1 𝑡 = 𝐸 𝑋 𝑡 𝐶𝑜𝑠 𝑡 = 𝐶𝑜𝑠 𝑡 𝐸 𝑋 𝑡 = 𝐶𝑜𝑠 𝑡 𝑚𝑋
𝑚𝑋2 = lim
𝜏→∞𝑅𝑋 𝜏 = 0 => 𝑚𝑋 = 0 => 𝐸 𝑌1 𝑡 = 0
b)
𝑅𝑌1 𝑡, 𝑡 + 𝜏 = 𝐸 𝑌 𝑡 𝑌 𝑡 + 𝜏 = 𝐸 𝑋 𝑡 𝐶𝑜𝑠 𝑡 𝑋 𝑡 − 𝜏 𝐶𝑜𝑠 𝑡 − 𝜏
= 𝐶𝑜𝑠 𝑡 𝐶𝑜𝑠 𝑡 − 𝜏 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝜏 = 𝐶𝑜𝑠 𝑡 𝐶𝑜𝑠 𝑡 − 𝜏 𝑅𝑋 𝜏
= 𝐶𝑜𝑠 𝑡 𝐶𝑜𝑠(𝑡 − 𝜏)𝑒− 𝜏
c)
𝐸 𝑌2 𝑡 = 𝐸 𝑋 𝑡 − 𝑋 𝑡 − 𝑑 = 𝐸 𝑋 𝑡 − 𝐸 𝑋 𝑡 − 𝑑 = 0 − 0 = 0
d)
𝑅𝑌2 𝑡, 𝑡 + 𝜏 = 𝐸 𝑌 𝑡 𝑌 𝑡 + 𝜏 = 𝐸 𝑋 𝑡 − 𝑋 𝑡 − 𝑑 𝑋 𝑡 + 𝜏 − 𝑋 𝑡 − 𝑑 + 𝜏
= 𝐸 𝑋 𝑡 𝑋 𝑡 + 𝜏 − 𝐸 𝑋 𝑡 − 𝑑 𝑋 𝑡 + 𝜏 − 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝑑 + 𝜏
+ 𝐸 𝑋 𝑡 − 𝑑 𝑋 𝑡 − 𝑑 + 𝜏 = 𝑅𝑋 𝜏 + 𝑅𝑋 𝜏 − 𝑅𝑋 𝜏 − 𝑑 − 𝑅𝑋 𝜏 + 𝑑
= 2𝑅𝑋 𝜏 − 𝑅𝑋 𝜏 − 𝑑 − 𝑅𝑋 𝜏 + 𝑑 = 2𝑒− 𝜏 − 𝑒− 𝜏−𝑑 − 𝑒− 𝜏+𝑑
46
Ejemplo:
Determinar si X(t) es w.s.s., sabiendo que 𝜃 => 𝑉. 𝐴. 𝑈𝑛𝑖𝑓𝑜𝑟𝑚𝑒 (−𝜋, 𝜋)
𝑋 𝑡 = 𝐴2𝐶𝑜𝑠2 𝑤𝑡 + 𝜃
Solución:
𝑓𝜃 =1
2𝜋 ; 𝐹𝜃 =
𝜃
2𝜋
𝐸 𝑋 𝑡 = 𝐸 𝐴2𝐶𝑜𝑠2 𝑤𝑡 + 𝜃 = 𝐴2𝐸 1
2+
𝐶𝑜𝑠 2 𝑤𝑡 + 𝜃
2 =
1
2𝐴2 +
1
2𝐸 𝐶𝑜𝑠2 𝑤𝑡 + 𝜃
=1
2𝐴2 +
1
2𝐸 𝐶𝑜𝑠 2𝑤𝑡 𝐶𝑜𝑠 2𝜃 − 𝑆𝑒𝑛 2𝑤𝑡 𝑆𝑒𝑛 2𝜃
=1
2𝐴2 +
1
2𝐶𝑜𝑠 2𝑤𝑡 𝐸 𝐶𝑜𝑠 2𝜃 −
1
2𝑆𝑒𝑛 2𝑤𝑡 𝐸 𝑆𝑒𝑛 2𝜃
𝐸 𝐶𝑜𝑠 2𝜃 = 𝐶𝑜𝑠 2𝜃 1
2𝜋𝑑𝜃
𝜋
−𝜋
=1
2𝜋 1
2𝑆𝑒𝑛 2𝜃
−𝜋
𝜋
= 0
𝐸 𝑆𝑒𝑛 2𝜃 = 𝑆𝑒𝑛 2𝜃 1
2𝜋𝑑𝜃
𝜋
−𝜋
=1
2𝜋 −
1
2𝐶𝑜𝑠 2𝜃
−𝜋
𝜋
= −1
4𝜋 1 − 1 = 0
Entonces:
𝐸 𝑋 𝑡 =1
2𝐴2 => Independiente de t
𝑅𝑋 𝜏 = 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝜏 = 𝐸 𝐴2𝐶𝑜𝑠2 𝑤𝑡 + 𝜃 𝐴2𝐶𝑜𝑠2 𝑤𝑡 − 𝑤𝜏 + 𝜃
= 𝐴4𝐸 𝐶𝑜𝑠2 𝑤𝑡 + 𝜃 𝐶𝑜𝑠2 𝑤𝑡 − 𝑤𝜏 + 𝜃
= 𝐴4𝐸 1
2+
1
2𝐶𝑜𝑠 2𝑤𝑡 + 2𝜃
1
2+
1
2𝐶𝑜𝑠 2𝑤 𝑡 − 𝜏 + 2𝜃
=𝐴4
4+
𝐴4
4𝐶𝑜𝑠 2𝑤𝑡 𝐶𝑜𝑠 2𝑤 𝑡 − 𝜏 𝐸 𝐶𝑜𝑠2 2𝜃
−𝐴4
4𝐶𝑜𝑠 2𝑤𝑡 𝑆𝑒𝑛 2𝑤 𝑡 − 𝜏 𝐸 𝐶𝑜𝑠 2𝜃 𝑆𝑒𝑛 2𝜃
−𝐴4
4𝐶𝑜𝑠 2𝑤 𝑡 − 𝜏 𝑆𝑒𝑛 2𝑤𝑡 𝐸 𝐶𝑜𝑠 2𝜃 𝑆𝑒𝑛 2𝜃
+𝐴4
4𝑆𝑒𝑛 2𝑤𝑡 𝑆𝑒𝑛 2𝑤 𝑡 − 𝜏 𝐸 𝑆𝑒𝑛2 2𝜃
47
𝐸 𝐶𝑜𝑠2 2𝜃 = 𝐸 1
2+
1
2𝐶𝑜𝑠 4𝜃 =
1
2+
1
2𝐸 𝐶𝑜𝑠 4𝜃 =
1
2+
1
2 𝐶𝑜𝑠 4𝜃
1
2𝜋𝑑𝜃
𝜋
−𝜋
=1
2+
1
4𝜋
1
4𝑆𝑒𝑛 4𝜃
−𝜋
𝜋
=1
2
𝐸 𝐶𝑜𝑠 2𝜃 𝑆𝑒𝑛 2𝜃 = 𝑆𝑒𝑛 2𝜃 𝐶𝑜𝑠 2𝜃 1
2𝜋𝑑𝜃
𝜋
−𝜋
=1
2𝜋 𝑆𝑒𝑛 2𝜃 𝐶𝑜𝑠 2𝜃 𝑑𝜃
𝜋
−𝜋
=1
2𝜋 𝑆𝑒𝑛2 2𝜃
−𝜋
𝜋= 0
𝐸 𝑆𝑒𝑛2 2𝜃 = 𝐸 1
2−
1
2𝐶𝑜𝑠 2𝜃 =
1
2
Entonces:
𝑅𝑋 𝜏 =𝐴4
4+
𝐴4
8𝐶𝑜𝑠 2𝑤𝑡 𝐶𝑜𝑠 2𝑤 𝑡 − 𝜏 +
𝐴4
8𝑆𝑒𝑛 2𝑤𝑡 𝑆𝑒𝑛 2𝑤 𝑡 − 𝜏
=𝐴4
8 2 + 𝐶𝑜𝑠 2𝑤𝑡 − 2𝑤𝑡 + 2𝑤𝜏
𝑅𝑋 𝜏 =𝐴4
8 2 + 𝐶𝑜𝑠 2𝑤𝜏 => 𝑁𝑜 𝑑𝑒𝑝𝑒𝑛𝑑𝑒 𝑑𝑒 𝑡
Entonces X(t) Sí es w.s.s.
Densidad Espectral de Potencia
La Densidad Espectral (Spectral Density) de una señal es una función matemática que nos
informa de cómo está distribuida la potencia o la energía (según el caso) de dicha señal sobre las
distintas frecuencias de las que está formada, es decir, su espectro.
𝑆𝑋 𝑓 = lim𝑇→∞
1
𝑇𝐸 𝑋𝑇(𝑓) 2
𝑋𝑇 𝑓 = 𝑋 𝑡 𝑒−𝑗 2𝜋𝑓𝑡 𝑑𝑡
𝑇2
−𝑇2
0 < 𝑃𝑋 < ∞
𝐸𝑋 → ∞
48
Teorema de Wiener Khinchin
El teorema de Wiener-Khinchin (también conocido como el teorema de Wiener-Khintchine y, a
veces como el teorema de Wiener-Khinchin-Einstein o el teorema de Kolmogorov-Khinchin) afirma
que la potencia de la densidad espectral de un proceso aleatorio estacionario en sentido amplio
es la transformada de Fourier de el correspondiente función de autocorrelación.
𝑆𝑋 𝑓 = 𝐹 𝑅𝑋 𝑡, 𝑡 + 𝜏 = 𝑅𝑋 𝑡, 𝑡 + 𝜏 𝑒−𝑗2𝜋𝑓𝜏 𝑑𝜏∞
−∞
𝑅𝑋 𝑡, 𝑡 + 𝜏 = 𝐹−1 𝑆𝑋 𝑓 = 𝑆𝑋 𝑓 𝑒𝑗2𝜋𝑓𝜏 𝑑𝑓∞
−∞
Si X(t) es w.s.s. entonces:
𝑆𝑋 𝑓 = 𝐹 𝑅𝑋 𝜏 = 𝑅𝑋 𝜏 𝑒−𝑗2𝜋𝑓𝜏 𝑑𝜏∞
−∞
[𝑤 𝐻𝑧 ]
𝑅𝑋 𝜏 = 𝐹−1 𝑆𝑋 𝑓 = 𝑆𝑋(𝑓)𝑒𝑗2𝜋𝑓𝜏 𝑑𝑓∞
−∞
Ejemplo:
Determinar:
a) Si Y(t) es w.s.s.
b) 𝑆𝑌(𝑓)
Dado que X(t) es w.s.s. 𝐸 𝑋 𝑡 = 0 ; 𝑉𝑎𝑟 𝑋 𝑡 = 2
𝑌 𝑡 = 2 + 3𝑋(𝑡 − 1)
Solución:
a)
𝐸 𝑌 𝑡 = 𝐸 2 + 3𝑋 𝑡 − 1 = 𝐸 2 + 𝐸 3𝑥 𝑡 − 1 = 2 => 𝐶𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝑅𝑌 𝑡, 𝑡 − 𝜏 = 𝐸 𝑌 𝑡 𝑌 𝑡 − 𝜏 = 𝐸 2 + 3𝑋 𝑡 − 1 2 + 3𝑋 𝑡 − 𝜏 − 1
= 𝐸 4 + 6𝑋 𝑡 − 𝜏 − 1 + 6𝑋 𝑡 − 1 + 9𝑋 𝑡 − 1 𝑋 𝑡 − 𝜏 − 1
= 4 + 9𝐸 𝑋 𝑡 − 1 𝑋 𝑡 − 1 − 𝜏 = 4 + 9𝑅𝑋 𝜏 => 𝐶𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
Entonces 𝑌 𝑡 𝑆í 𝑒𝑠 𝑤. 𝑠. 𝑠.
49
b)
𝑆𝑌 𝑓 = 𝐹 𝑅𝑌 𝜏 = 𝑅𝑌(𝜏)𝑒−𝑗2𝜋𝑓𝜏 𝑑𝜏∞
−∞
= 4 + 9𝑅𝑋(𝜏) 𝑒−𝑗2𝜋𝑓𝜋 𝑑𝜋∞
−∞
= 4𝑒−𝑗2𝜋𝑑𝜏∞
−∞
+ 9𝑅𝑋(𝜏)𝑒−𝑗2𝜋𝑓𝜏 𝑑𝜏∞
−∞
= 4𝛿 𝑓 + 9𝑆𝑋(𝑓)
Ejemplo:
Conociendo que X(t) es w.s.s., y que 𝑅𝑋 𝜏 = 𝑒− 𝜏 ; 𝜏 ∈ 𝑅.
Determinar:
a) Si 𝑌 𝑡 = 𝑋 𝑡 𝐶𝑜𝑠 𝑡 𝑒𝑠 𝑤. 𝑠. 𝑠.
b) Si 𝑌 𝑡 = 𝑋 𝑡 − 𝑋 𝑡 − 𝑑 , 𝑎𝑙𝑙𝑎𝑟 𝑆𝑌 𝑓 𝑜 𝑆𝑌(𝑤)
Solución:
a)
𝐸 𝑌 𝑡 = 𝐸 𝑋 𝑡 𝐶𝑜𝑠 𝑡 = 𝐶𝑜𝑠 𝑡 𝐸 𝑋 𝑡 = 𝐶𝑜𝑠 𝑡 𝑢𝑥
lim𝜏→∞
𝑅𝑋(𝜏) = 𝑢𝑋2 => 𝑢𝑋 = 0 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝐸 𝑌 𝑡 𝑌 𝑡 − 𝜏 = 𝐸 𝑋 𝑡 𝐶𝑜𝑠 𝑡 𝑋 𝑡 − 𝜏 𝐶𝑜𝑠 𝑡 − 𝜏 = 𝐶𝑜𝑠 𝑡 𝐶𝑜𝑠 𝑡 − 𝜏 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝜏
= 𝐶𝑜𝑠 𝑡 𝐶𝑜𝑠 𝑡 − 𝜏 𝑅𝑋 𝜏 = 𝐶𝑜𝑠 𝑡 𝐶𝑜𝑠 𝑡 − 𝜏 𝑒− 𝜏
→ 𝑁𝑜 𝑒𝑠 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒, 𝑁𝑜 𝑒𝑠 𝑤. 𝑠. 𝑠.
b)
𝑆𝑌 𝑓 = 𝐹[𝑅𝑌(𝑡, 𝑡 − 𝜏)]
𝑅𝑌 𝑡, 𝑡 + 𝜏 = 𝐸 𝑌 𝑡 𝑌 𝑡 + 𝜏 = 𝐸 𝑋 𝑡 − 𝑋 𝑡 − 𝑑 𝑋 𝑡 + 𝜏 − 𝑋 𝑡 + 𝜏 − 𝑑
= 𝐸 𝑋 𝑡 𝑋 𝑡 + 𝜏 − 𝑋 𝑡 𝑋 𝑡 + 𝜏 − 𝑑 − 𝑋 𝑡 − 𝑑 𝑋 𝑡 + 𝜏
+ 𝑋 𝑡 − 𝑑 𝑋 𝑡 + 𝜏 − 𝑑 = 𝑅𝑋 𝜏 − 𝑅𝑋 𝜏 − 𝑑 − 𝑅𝑋 𝜏 + 𝑑 + 𝑅𝑋 𝜏
= 2𝑅𝑋 𝜏 − 𝑅𝑋 𝜏 − 𝑑 − 𝑅𝑋 𝜏 + 𝑑 = 2𝑒− 𝜏 − 𝑒− 𝜏−𝑑 − 𝑒− 𝜏+𝑑
𝑆𝑌 𝑤 =4
1 + 𝑤12−
2
1 + 𝑤22
−2
1 + 𝑤32
50
Paso de una Señal Aleatoria por un Sistema Lineal
El símbolo * denotara convolución.
𝑦 𝑡 = 𝑥 𝑡 ∗ (𝑡)
𝑅𝑦 𝜏 = 𝐸 𝑦 𝑡 𝑦 𝑡 + 𝜏
𝑅𝑦 𝜏 = −𝜏 ∗ 𝜏 ∗ 𝑅𝑥 (𝜏)
𝑆𝑌 𝑓 = 𝐻 𝑓 2𝑆𝑋(𝑓)
𝑅𝑋𝑌 𝜏 = 𝜏 ∗ 𝑅𝑋 𝜏
𝑅𝑥𝑦 𝜏 = 𝑅𝑥𝑦 −𝜏
Para un Sistema No Lineal
Uso la definición:
𝑦 𝑡 = 𝑥 𝑡 ∗ (𝑡)
Ejemplo:
Suponiendo X(t) y W(t) w.s.s. e independientes. Hallar 𝑅𝑍(𝜏) si:
a)
𝑍 𝑡 = 𝑋 𝑡 𝑊(𝑡)
Solución:
𝑅𝑍 𝜏 = 𝐸 𝑋 𝑡 𝑊 𝑡 𝑋 𝑡 − 𝜏 𝑊 𝑡 − 𝜏 = 𝑅𝑋 𝜏 𝑅𝑊(𝜏)
51
b)
𝑍 𝑡 = 𝑋 𝑡 + 𝑊(𝑡)
Solución:
𝑅𝑍 𝜏 = 𝐸 𝑋 𝑡 + 𝑊 𝑡 𝑋 𝑡 − 𝜏 + 𝑊 𝑡 − 𝜏
= 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝜏 + 𝑋 𝑡 𝑊 𝑡 − 𝜏 + 𝑊 𝑡 𝑋 𝑡 − 𝜏 + 𝑊 𝑡 𝑊 𝑡 − 𝜏
= 𝑅𝑋 𝜏 + 𝑅𝑊 𝜏 + 𝑢𝑋𝑢𝑊 + 𝑢𝑊𝑢𝑋 = 𝑅𝑋 𝜏 + 𝑅𝑊 𝜏 + 2𝑢𝑋𝑢𝑊
Retardador
Z t = X t − t0
RZ 𝜏 = 𝑅𝑋 𝜏
Procesos Ergódicos
Determinación de parámetros:
a) Se toma una muestra completa del proceso y se realizan los cálculos sobre ella.
b) Se toman todas las salidas para un tk y se calcula los parámetros deseados.
Si el valor del parámetro resulta igual por los dos métodos, se dice que el proceso es ergódico
respecto a ese parámetro.
Ejemplo: Ergodicidad respecto a la media
𝐸 𝑋 𝑡 = lim𝑇→∞
1
𝑇 𝑋𝑘 𝑡 𝑑𝑡
𝑇2
−𝑇2
= 𝑋 𝑡𝑘 𝑃 𝑋 𝑡𝑘 𝑑𝑋(𝑡𝑘 )∞
−∞
𝐸 𝑋 𝑡 = 𝑋 => 𝑁𝑖𝑣𝑒𝑙 𝐷𝐶 𝑑𝑒 𝑋 𝑡 ≈ 𝑁𝑖𝑣𝑒𝑙 𝑚𝑒𝑑𝑖𝑜
𝐸 𝑋2 = 𝑋2 => 𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑋 𝑡
𝐸 𝑋 2 = (𝑋 )2 => 𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎 𝐷𝐶 𝑑𝑒 𝑋 𝑡
𝑉𝑎𝑟 𝑋 = 𝜍𝑋2 = 𝐸 𝑋2 − 𝐸 𝑋 2 => 𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝐴𝐶 𝑑𝑒 𝑋 𝑡
𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖𝑜𝑛 = 𝜍𝑋 => 𝑉𝑜𝑙𝑡𝑎𝑗𝑒 𝑅𝑀𝑆 𝑑𝑒 𝑋 𝑡
𝐹 𝑅𝑋(𝜏) = 𝑆𝑋(𝑓)
52
Nota: Todo proceso ergódico es w.s.s., pero no al revés.
Ejemplo:
Se tiene un proceso ergódico X(t) con 𝑅𝑋 𝜏 = 𝐴2𝑒−2𝑉 𝜏
Solución:
Nivel DC
lim𝜏→∞
𝑅𝑋 𝜏 = 𝑢𝑋2 = 0 => 𝑢𝑋 = 0
Potencia Promedio Total
𝐸 𝑋2 = 𝑅𝑋 0 = 𝐴2
Potencia DC
𝐸[𝑋]2 = 0
Potencia Promedio AC de X(t)
𝜍2 = 𝐴2
Voltaje RMS de X(t)
𝜍𝑋 = 𝐴
Densidad Espectral de Potencia
𝑆𝑋 𝑤 = 𝐹 𝑅𝑋 𝜏 =4𝐴𝑉
4𝑉2 + 𝑊2
Nota: Si 𝑆𝑋(𝑡) tiene 𝛿 (deltas), entonces la media de X(t) no es cero
53
Ruido Blanco
El ruido blanco o sonido blanco es una señal aleatoria (proceso estocástico) que se
caracteriza por el hecho de que sus valores de señal en dos tiempos diferentes no guardan
correlación estadística. Como consecuencia de ello, su densidad espectral de potencia (PSD, siglas
en inglés de power spectral density) es una constante, es decir, su gráfica es plana.1 Esto significa
que la señal contiene todas las frecuencias y todas ellas muestran la misma potencia. Igual
fenómeno ocurre con la luz blanca, de allí la denominación.
Ejercicios Varios
Ejercicio1:
Si X(t) es un procesos estocástico gausiano w.s.s. con 𝑅𝑋 𝜏 = 9 + 2𝑒−𝜏2, y sea S una variable
aleatoria discreta e independiente de X(t) con distribución P(S=1)=0.7, P(S=2)=0.2, P(S=3)=0.1
Si Z(t)=SX(t) , hallar:
a) Z(t) es w.s.s.?
b) 𝑆𝑍(𝑤)
Solución:
a)
𝐸 𝑍 = 𝐸 𝑆𝑋 𝑡 = 𝐸 𝑆 𝐸 𝑋 𝑡
𝐸 𝑆 = 1 0.7 + 2 0.2 + 3 0.1 = 0.7 + 0.4 + 0.3 = 1.4
lim𝜏→∞
𝑅𝑋 𝜏 = 𝑢𝑋2 = 𝐸 𝑋 𝑡 2 = 9 => 𝐸 𝑋 𝑡 = 3
Entonces 𝐸 𝑍 = 4.2 𝐶𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 (𝑆𝑖𝑛 𝑡)
54
𝑅𝑍 𝜏 = 𝐸 𝑍 𝑡 𝑍 𝑡 − 𝜏 = 𝐸 𝑆𝑋 𝑡 𝑆𝑋 𝑡 − 𝜏 = 𝐸 𝑆2𝑋 𝑡 𝑋 𝑡 − 𝜏 = 𝐸 𝑆2 𝐸 𝑋 𝑡 𝑋 𝑡 − 𝜏
= 𝐸 𝑆2 𝑅𝑋(𝜏)
𝐸 𝑆2 = 1 0.7 + 4 0.2 + 9 0.1 = 0.7 + 0.8 + 0.9 = 2.4
Entonces 𝑅𝑍 𝜏 = 21.6 + 4.8𝑒−𝜏2 𝐶𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑆𝑖𝑛 𝑡
Entonces Z(t) Sí es w.s.s.
b)
𝑆𝑍 𝑤 = 𝐹 𝑅𝑍 𝜏 = 𝐹 2.4 9 + 2𝑒−𝜏2 = 21.4 2𝜋 𝛿 𝑤 + 4.8 𝜋𝑒−
𝑤 2
4
Ejercicio2:
Sea A,B una variable aleatoria bidimensional continua con
𝑓𝐴 ,𝐵 𝑎, 𝑏 = 2 ; 𝑎 ≥ 0, 𝑏 ≥ 0, 𝑎 + 𝑏 ≤ 10 ; 𝑝𝑎𝑟𝑎 𝑒𝑙 𝑟𝑒𝑠𝑡𝑜
Si 𝑋 𝑡 = 𝐴𝑡2 + 𝐵, determinar:
a) 𝐸[𝑋(𝑡)] y la Autocorrelacion de X(t)
b) 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 𝑋(2)
c) Funcion de Densidad y de Probabilidad de X(1)
Solución:
55
a)
𝑓𝐴 𝐴 = 2𝑑𝑏1−𝑎
0
= 2𝐵01−𝑎 = 2 − 2𝑎
𝑓𝐵 𝐵 = 2𝑑𝑎1−𝑏
0
= 2𝐴01−𝑏 = 2 − 2𝑏
𝐹𝐴 𝑎 = 2 − 2𝑎 𝑑𝑎𝑎
0
= 2𝑎|0𝑎 − 𝑎2|0
𝑎 = 2𝑎 − 𝑎2
𝐹𝐵 𝑏 = 2 − 2𝑏 𝑑𝑏𝑏
0
= 2𝑏|0𝑏 − 𝑏2|0
𝑏 = 2𝑏 − 𝑏2
𝐸 𝑋 𝑡 = 𝐸 𝐴𝑡2 + 𝐵 = 𝐸 𝐴𝑡2 + 𝐸 𝐵 = 𝑡2𝐸 𝐴 + 𝐸[𝐵]
𝐸 𝐴 = 𝐸 𝐵 = 𝑎 2 − 2𝑎 𝑑𝑎1
0
= 𝑎2|01 −
2
3𝑎3|0
1 = 1 −2
3=
1
3
Entonces 𝐸 𝑋 𝑡 =1
3𝑡2 +
1
3
𝑅𝑋 𝑡1 , 𝑡2 = 𝐸 𝑋 𝑡1 𝑋 𝑡2 = 𝐸 𝐴𝑡12 + 𝐵 𝐴𝑡2
2 + 𝐵 = 𝐸 𝐴2𝑡12𝑡2
2 + 𝐴𝐵𝑡12 + 𝐴𝐵𝑡2
2 + 𝐵2
= 𝑡12𝑡2
2𝐸 𝐴2 + 𝑡12𝐸 𝐴𝐵 + 𝑡2
2𝐸 𝐴𝐵 + 𝐸[𝐵2]
𝐸 𝐴2 = 𝐸 𝐵2 = 𝑎2(2 − 2𝑎)1
0
𝑑𝑎 =2
3𝑎3
01
−1
2𝑎4
01
=2
3−
1
2=
4 − 3
6=
1
6
𝐸 𝐴𝐵 = 𝑎𝑏2𝑑𝑎1−𝑏
0
𝑑𝑏1
0
= 2 𝑏 𝑎𝑑𝑎1−𝑏
0
𝑑𝑏1
0
= 2 1
2𝑎2
0
1−𝑏
𝑑𝑏1
0
=2
2 𝑏(1 − 𝑏)2𝑑𝑏
1
0
= 𝑏 𝑏2 − 2𝑏 + 1 𝑑𝑏1
0
= 𝑏3 − 2𝑏2 + 𝑏 𝑑𝑏1
0
=1
4𝑏4
01
−2
3𝑏3
01
+1
2𝑏2
01
=1
4−
2
3+
1
2=
3 − 8 + 6
12=
1
12
Entonces 𝑅𝑋 𝑡1, 𝑡2 =1
6𝑡1
2𝑡22 +
1
12𝑡1
2 +1
12𝑡2
2 +1
6
b)
𝑉𝑎𝑟 𝑋 2 = 𝐸 𝑋 2 2 − 𝑢𝑋2 = 𝑅𝑋 2,2 − 𝑢𝑋(2)
2 =1
6 4 4 +
1
12 4 +
1
12 4 +
1
6−
5
3
2
=13
18
56
c)
𝑋 𝑡 = 𝐴𝑡2 + 𝐵 => 𝑋 1 = 𝐴 + 𝐵
𝑓𝑋 = 2𝑑𝑎𝑋 1 −𝑏
0
𝑑𝑏𝑋(1)
0
= 2𝑋 1 ; 0 ≤ 𝑋(1) ≤ 1
𝐹𝑋 = 𝑋(1)2 ; 0 ≤ 𝑋(1) < 1
Ejercicio3:
Un proceso ergódico con distribución uniforme entre [-a, a], tiene la siguiente función de
correlacion:
𝑅𝑋 𝜏 =𝑒− 𝜏
3
Determine el valor de a y explique.
Solución:
Partimos del hecho que
𝑅𝑋 0 = 𝐸 𝑋2
Por lo que en este caso en particular tenemos lo siguiente:
1
3= 𝑋2
1
2𝑎𝑑𝑋
𝑎
−𝑎
Y resolviendo:
1
2𝑎
1
3𝑋3
−𝑎
𝑎
=1
3
57
1
6𝑎𝑎3 +
1
6𝑎𝑎3 =
1
3
1
3𝑎2 =
1
3
𝑎 = 1
Ejercicio4:
Un proceso ergodico X(t) tiene un valor medio igual a 4[V]. Si X(t) pasa por un sistema lineal cuya
respuesta impulsiva es h(t) igual a 4sinc(t), determine el valor medio de la señal de salida.
Solución:
Se entiende que tengo 𝑅𝑋(𝜏)
𝑅𝑋 𝜏 = 𝑅 𝜏 + 16
Entonces
𝑆𝑋 𝑓 = 𝑆 𝑓 + 16𝛿 𝑡 𝑜 𝑆𝑋 𝑤 = 𝑆 𝑤 + 16 2𝜋 𝛿 𝑤
𝑆𝑌 𝑓 = 𝐻 𝑓 2𝑆𝑋(𝑓)
𝐻 𝑓 = 4𝑃𝑎 𝑓
𝑆𝑌 𝑓 = 16 𝑆 𝑓 + 16𝛿 𝑡
𝑆𝑌 𝑓 = 16𝑆 𝑡 + 162𝛿 𝑡
𝑅𝑌 𝑓 = 16𝑅 𝜏 + 162
𝐸 𝑌 = 16
58
Ejercicio5:
Una señal X(t) con 𝑅𝑋 𝜏 = 5𝑆𝑖𝑛𝑐 5𝜏 + 2 se contamina con ruido blanco independiente de ella,
con densidad espectral de potencia 𝑆𝑛 𝑓 = 0.5 La suma de estas señales se procesan en un
sistema lineal que tiene modulo de 𝐻(𝑓) 2 = 𝑆𝑖𝑛𝑐2(𝑓)
Determinar:
a) Grafica de 𝑅𝑋 𝜏
b) 𝑆𝑋(𝑓)
c) Valor DC y potencia AC de X(t)
Solución:
a)
b)
𝑆𝑋 𝑓 = 5𝑃𝑎 𝑓 + 2𝛿(𝑓)
59
c)
Valor DC = 2
Potencia Total = 7
Potencia AC = 7-2 = 5
Ejercicio6:
Un mensaje X(t) aleatorio y ergódico, con una función de autocorrelacion
𝑅𝑋 𝜏 = 0.1𝑆𝑖𝑛𝑐2(106𝜏) es modulado en amplitud usando el siguiente sistema:
Determine:
a) Densidad Espectral de Potencia de Y(t) en función de la Densidad de Potencia X(t) y
dibújela.
b) Dibujar la Densidad Espectral de Potencia de Y1(t) y Y2(t)
60
Solución:
𝑆𝑌1 𝑓 = 𝐻 𝑓 2𝑆𝑋 𝑓 = 0.8𝑆𝑋(𝑓) 𝑆𝑌2
𝑓 = 𝑆𝑌1 𝑓 + 𝛿 𝑡
𝑆𝑌 𝑓 =𝑆𝑌1
(𝑓 − 𝑓0)
4+
𝑆𝑌2(𝑓 − 𝑓0)
4
𝑅𝑌 𝑡 = 𝐸 𝑌2 𝑡 𝐶𝑜𝑠 2𝜋109𝑡 + 𝜃 𝑌2 𝑡 + 𝜏 𝐶𝑜𝑠 2𝜋109 𝑡 + 𝜏 + 𝜃
= 𝐸 𝑌2 𝑡 𝑌2 𝑡 + 𝜏 𝐸 𝐶𝑜𝑠 2𝜋109𝑡 + 𝜃 𝐶𝑜𝑠 2𝜋109 𝑡 + 𝜏 + 𝜃
= 𝑅𝑌2 𝜏
1
2𝐶𝑜𝑠(2𝜋109𝜏)