Teoría de la comunicación - Servidor de Teoria de la...

62
Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 1 Procesos estocásticos Teoría de la comunicación

Transcript of Teoría de la comunicación - Servidor de Teoria de la...

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 1

Procesos estocásticos

Teoría de la comunicación

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 2

Indice

Probabilidad.Variables Aleatorias.Procesos Estocásticos.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 3

Probabilidad

Probabilidad.

Dado un experimento ε del tipo que sea, se define el espacio muestral como el conjunto de todos los resultados posibles del experimento.

Al espacio muestral, normalmente se le denota con la letra S.El lanzar un dado es un experimento cuyo espacio muestral estáformado por los seis posibles números, es decir, S={1, 2, 3, 4, 5, 6}

Se define un suceso “A”, respecto a un espacio muestral S, como un conjunto de posibles resultados.

Normalmente el suceso “A” va a suponer un subconjunto del espacio muestral S.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 4

Probabilidad.

Se define la frecuencia relativa de un suceso A ∈ ε, al cociente entre el número de veces que se da el suceso A, después de repetir n veces el experimento ε.

Las principales propiedades de la frecuencia relativa son:0 ≤ fAA ≤ 1.fA=1 si A ocurre en las n repeticiones.fA=0 si A no ocurre en las n repeticiones.Sea A y B dos sucesos pertenecientes al experimento ε y mutuamente excluyentes, entonces fA∪B=fA+fB.Si el número de repeticiones del experimento ε tiende a infinito, n→∞, la frecuencia relativa fA converge en cierto sentido probabilístico hacia la probabilidad de A.

nn

f AA =

( )∞→

∞→==

n

AnA n

nfAP

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 5

Probabilidad.

Dado un experimento ε cuyo espacio muestral es S, si a cada suceso A se le asocia un número real designado por P(A), resultado de obtener fAcuando n→∞, se van a a cumplir las siguientes propiedades:

0 ≤ P(A) ≤ 1.

P(S)=1.

Si ∅ es el conjunto vacío, P(∅)=0.

Si A y B son dos sucesos cualquiera P(A∪B)=P(A)+P(B)-P(A∩B).

Si A y B son sucesos mutuamente excluyentes P(A∪B)=P(A)+P(B)Si A ⊂ B entonces P(A) ≤ P(B).

( ) ( )AP1AP −=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 6

Probabilidad.

Sean A y B dos sucesos asociados a un experimento ε, se define la probabilidad condicionada de B al suceso A como la probabilidad de que se de el suceso B si se ha dado el suceso A, y se define como:

Así mismo se define la probabilidad de A condicionada a que se halla dado el suceso B, como:

( ) ( )( ) ( ) 0APAP

BAPA

BP >⇒∩

=

( ) ( )( ) ( ) 0BPBP

BAPB

AP >⇒∩

=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 7

Probabilidad.

A partir de las dos ecuaciones anteriores es posible obtener el teorema de Bayes que establece:

( ) ( ) ( ) ( ) ( )( ) ( ) ( )

( )

( ) ( ) ( )( )⎪

⎪⎪

⋅=

⋅=

⇒⋅=⋅=∩

BP

APABP

BAP

AP

BPBAP

ABP

BPBAPAPA

BPBAP

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 8

Variables aleatorias.

Dado un experimento ε cuyo espacio muestral asociado es S, se define la variable aleatoria X, a la función que asigna a cada uno de los elementos s ∈ S, un número real X(s).

Si S contiene un número contable de muestras, entonces X(s) es una variable aleatoria discreta, en caso contrario X(s) será una v.a. continua.

La principal ventaja que presentan las variables aleatorias son que permiten manejar sucesos del tipo P(X=a) o bien P(X≤a), siendo “a” un punto de la recta real x.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 9

Variables aleatorias.

Función de distribución de probabilidad (F.D.).

Considerando un experimento ε al que se ha asociado una variable aleatoria X, se define la función distribución de probabilidad FX(x), como la probabilidad de que X≤x, o lo que es lo mismo P(X≤x).

( ) ( ) ∞<<∞−∀≤= xxXPxFX

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 10

Variables aleatorias.

Sus principales propiedades son:

0 ≤ FX(x) ≤ 1, siendo FX(-∞)=0 y FX(∞)=1.

FX(x) es continua por la derecha, es decir, FX(x+)= FX(x).

FX(x) es una función no decreciente, es decir, FX(x1) ≤ FX(x2) si x2 > x1

P(X>x) = 1- FX(x).

P(a<x≤b) = FX(b) - FX(a), siendo b>a

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 11

Variables aleatorias.

Función densidad de probabilidad (f.d.p.).

La función densidad de probabilidad se define como:

La función de distribución es muy útil para el cálculo de probabilidades, sin embargo, en comunicaciones se va a trabajar sobre todo con promedios estadísticos, por ello va a ser más útil trabajar con la función densidad de probabilidad.

( ) ( )dx

xdFxf X

X =

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 12

Variables aleatorias.

Las propiedades de la función densidad de probabilidad para variables aleatorias continuas, son:

fX(x) ≥ 0.

( ) ( ) ( )∫∞−

⋅==≤x

XX dfxFxXP λλ

( ) 1dxxf X =⋅∫∞

∞−

( ) ( ) ( ) ( )∫ ⋅=−=≤<b

XXX dxxfaFbFbXaPa

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 13

Variables aleatorias.

F.D. y f.d.p. conjuntas.

Algunos experimentos se caracterizan por más de una variable aleatoria que pueden o no ser independientes, en este caso se habla de F.D. y f.d.p. conjuntas.

Por sencillez se estudia el caso de dos variables aleatorias.

La función distribución conjunta se define como:

La función densidad de probabilidad conjunta, se define como:.

( ) ( )dydx

xyFdxyf XY

2

XY ⋅=

( ) ( )yYxXPyxFXY ≤≤= ,,

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 14

Variables aleatorias.

Propiedades de la F.D. y f.d.p. conjunta.

( ) ( )∫ ∫ ⋅⋅=≤<≤<2x

1x

2y

1yXY2121 dxdyxyfyYy,xXxP

( ) ( ) 1dxdyxyfF XYXY =⋅⋅=∞∞ ∫ ∫∞

∞−

∞−

( ) ( ) ( )

( ) ( )⎪⎩

⎪⎨

⋅=

∞≤<∞−≤=∞=

∫∞

∞−

dyxyfxf

YxXPxFxF

XYX

XYX ,,

( ) ( ) ( )

( ) ( )⎪⎩

⎪⎨

⋅=

≤∞≤<∞−=∞=

∫∞

∞−

dxxyfyf

yY,XPy,FyF

XYY

XYY

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 15

Variables aleatorias.

Dos variables aleatorias son estadísticamente independientes si el valor que toma cada una de ellas no influye sobre los valores de la otra, por lo tanto se va a cumplir:

Si dos variables aleatorias no son independientes, es posible obtener su f.d.p. conjunta en función de las f.d.p. condicionales:

( ) ( ) ( )( ) ( ) ( )yfxfxyf

yFxFxyF

YXXY

YXXY

⋅=⋅=

( ) ( ) ( ) ( ) ( )yffxffxyf Yyx

YXXx

y

XYXY ⋅=⋅=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 16

Variables aleatorias.

Promedios estadísticos de una v.a.

La F.D. y la f.d.p. caracterizan totalmente a una variable aleatoria, sin embargo, en algunas ocasiones o bien no es necesaria tanta información o bien es muy difícil obtener dichas funciones y es suficiente con definir algunos promedios de dicha v.a.

MediaVarianzaCoeficiente de correlación

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 17

Variables aleatorias.

Media estadística.

Se define la media como el valor con mas probabilidad esperado.

Sea X una variable aleatoria discreta con valores posibles x1, x2, ..., xn y sea p(xi)=P(X=xi), i=1,2,..., n. El valor esperado de X se denota por E[X] y se define como:

Dada una v.a. continua X, cuya f.d.p. es fX(x), su valor medio es:

[ ] ( )∑=

⋅==n

1iiiX xpxmXE

[ ] ( )∫∞

∞−

⋅⋅== dxxfxmXE XX

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 18

Variables aleatorias.

Propiedades de la media estadística:

Si X=Cte entonces E[X]=Cte.E[kX]=k E[X].E[X+Y]=E[X]+E[Y]E[X1+X2+...+Xn]=E[X1]+E[X2]+...+E[Xn]Sea (X,Y) una v.a. bidimensional con X eY independientes E[XY]=E[X]⋅E[Y]Dada Y=g(X) es posible obtener la media de la nueva variable Y, como:

[ ] ( ) ( )[ ] ( ) ( )∫∫∞

∞−

∞−

⋅⋅==⋅⋅= dxxfxgXgEdyyfyYE XY

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 19

Variables aleatorias.

Varianza de una v.a.

La varianza es una medida de la concentración de la f.d.p. de X alrededor de la media. Cuanto mayor sea la varianza, mayor es laprobabilidad de encontrar valores alejados de la media. La varianza se define como:

Si X es una v.a. discreta la varianza de la función se define como:

Si X es una v.a. continua:

( ) ( )[ ]2X

2X mXEXVar −==σ

( ) ( )∑∞

−∞=

=⋅−=n

n2

Xn2X xXPmxσ

( ) ( ) dxxfmx X2

X2X ⋅⋅−= ∫

∞−

σ

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 20

Variables aleatorias.

Propiedades de la varianza.

Var(kX) = k2 Var(X)Var(X+k) = Var(X)Si (X,Y) es una v.a. bidimensional donde X e Y son independientes se cumple:

Sea X1, X2, ... , Xn v.a. independientes. Se cumple:

( )[ ] [ ] [ ]XEXEmXE 222X

2X −=−=σ

( ) ( ) ( )YVarXVarYXVar +=+

( ) ( ) ( ) ( )n21n21 XVar...XVarXVarX...XXVar +++=+++

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 21

Variables aleatorias.

Coeficiente de correlación.

El coeficiente de correlación de dos variables aleatorias X e Y da, en gran parte, el grado de similitud entre las dos variables aleatorias.

Se define el coeficiente de correlación entre X e Y, como.

El numerador del coeficiente de correlación representa la covarianza de X e Y (CXY).

( ) ( )[ ][ ] [ ]

[ ] [ ]{ }⎩⎨⎧

≤≤−≠∀

−⋅−=

110YVaryXVar

YVarXVarmYmXE

XY

YXXY ρ

ρ

( ) ( )[ ] [ ] YXYXXY mmXYEmYmXEC −=−⋅−=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 22

Variables aleatorias.

Variables aleatorias incorreladas.

Se dice que dos v.a. X e Y están incorreladas si su coeficiente de correlación es nulo y por lo tanto su covarianza.

Si X e Y son dos v.a. independientes, también serán v.a. incorreladas. La incorrelación es una condición mucho más débil que la independencia.

Dos variables aleatorias X e Y pueden estar incorreladas pero no tiene porque ser independientes.

Si X e Y están incorreladas Var[X+Y]=Var[X]+Var[Y].

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 23

Variables aleatorias.

Variables aleatorias ortogonales.

Dos variables aleatorias X e Y son ortogonales si E[XY]=0.

Variables aleatorias independientes.

Dos variables aleatorias X e Y son independientes si se cumple:

( ) ( ) ( )( ) ( ) ( )yfxfxyf

yFxFxyF

YXXY

YXXY

⋅=⋅=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 24

Variables aleatorias.

Distribución Gaussiana.

Una de las v.a. continuas más importantes es aquella cuya f.d.p. tiene una distribución normal o Gaussiana, que toma valores de x entre ∞ y -∞, y cuya expresión es:

( ) ( ) ∞<<∞−∀==⎟⎟⎠

⎞⎜⎜⎝

⎛ −−

x,mNe2

1xf xX

2

XXmx

21

XX σ

σπσ

xE[X] E[X]+σ

XE[X]-σ

X

f (x)X

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 25

Variables aleatorias.

Distribución uniforme.

La f.d.p. uniforme tiene la misma probabilidad en un intervalo de x, siendo dicho probabilidad nula fuera del mismo.

xE[X]

f (x)X

a b

( )[ ]

( )⎪⎪⎩

⎪⎪⎨

⎪⎪⎩

⎪⎪⎨

−=

+=

⇒≤≤∀

−=

12

2

Re0

1

22 ab

abXE

xsto

bxaabxf

X

X

σ

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 26

Variables aleatorias.

Distribución de Rayleigh.

El modelo de Rayleigh describe una v.a. continua producida por dos variables aleatorias Gaussianas X,Y resultante de la transformación mostrada en la figura :

Las variables aleatorias X e Y van a ser independientes y además van a cumplir:

x

y

X

Y R

Φ

[ ] [ ] 0YX;0YEXE σσσ ====

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 27

Variables aleatorias.

La v.a. R tiene una f.d.p. denominada de Rayleigh y cuya ecuación es la siguiente:

( ) ( )

[ ]

[ ][ ]

⎪⎪⎪

⎪⎪⎪

⋅⎟⎠⎞

⎜⎝⎛ −=

⋅=

=

⇒⋅⋅=⎟⎟⎠

⎞⎜⎜⎝

⎛−

20

20

2

02

0

r21

20

R

22RVar

2RE2

RE

ruerrf

σπσ

σπ

σσ

r

f (r)R

E[R]

(b)

( ) ( ) ( )rue1rRPrF

2

0

r21

R ⋅⎟⎟⎟⎟

⎜⎜⎜⎜

−=≤=⎟⎟⎠

⎞⎜⎜⎝

⎛−

σ

22 YXR +=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 28

Procesos estocásticos

Los procesos aleatorios o procesos estocásticos son extensiones de los conceptos asociados con las variables aleatorias cuando se introduce el parámetro tiempo en la función.

La mayoría de las señales que se utilizan en comunicaciones son de tipo determinístico, sin embargo en ciertas situaciones, como es el caso de un sistema al que se le suma ruido térmico, las señales que se generan no van a ser determinísticas sino aleatorias.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 29

Procesos estocásticos

t

v(t,E )1

t

v(t,E )2

t

v(t,E )3

Fuente de ruido

v(t)

t

v(t,E )4

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 30

Procesos estocásticos

En general v(t,Ei) va a representar la forma de la señal de ruido cuando se produce el evento Ei del espacio muestral.

Se dice que v(t,Ei) es una función muestral del espacio muestral.

Al conjunto de todas las funciones muestrales v(t,Ei) se le denomina simplemente conjunto y define al proceso aleatorio que caracteriza, en este caso, a la fuente de ruido.

Al observar la forma de la señal generada por la fuente de ruido, se ve una de las funciones muestrales.

Es posible comparar la definición de variable aleatoria y la de proceso estocástico, ya que mientras la variable aleatoria transforma los eventos en constantes, el proceso estocástico transforma los eventos en funciones del tiempo.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 31

Procesos estocásticos

Respecto a un proceso estocástico v(t,E) se pueden dar los siguientes casos:

Si t es variable y E es variable se tiene un proceso estocástico o aleatorio.

Si t es variable y E es fija se tiene una función determinística y representa una realización concreta del proceso aleatorio.

Si t fija y E variable se tiene una variable aleatoria.

Si t fija y E fija se tiene un número real.

En general, el proceso aleatorio v(t,E) se va a conocer como v(t), por comodidad.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 32

Procesos estocásticos

Fuente de ruido v(t)

t

t

t

t

v(t,E )1

v(t,E )2

v(t,E )3

v(t,E )4

t1

t1

t2

t2

v(t ,E )1 i

v(t ,E )2 i

t1

t2

t1

t2

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 33

Procesos estocásticos

Función de Distribución de primer y segundo orden.

Se va a suponer que x(t,E)=x(t) es un proceso real. La función de distribución de primer orden de x(t) va a ser una función dependiente del tiempo y se va a definir como:

Dado un proceso aleatorio x(t,E)=x(t) y dados dos instantes de tiempo t1y t2, se tiene las variables aleatorias x(t1) y x(t2). La función de distribución conjunta va a depender de t1 y t2 y se va a definir como:

( ) ( )( )xtXPtxF ≤=;

( ) ( ) ( )[ ]22112121 xtX,xtXPt,t;x,xF ≤≤=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 34

Procesos estocásticos

Función Densidad de Probabilidad de primer y segundo orden.

Se define la función densidad de probabilidad como:

Dado un proceso aleatorio x(t,E)=x(t) y dados dos instantes de tiempo t1y t2, se tiene las variables aleatorias x(t1) y x(t2). La función densidad de probabilidad conjunta, va a depender de t1 y t2 y se va a denotar por:

( ) ( )dx

t;xdFt;xf =

( ) ( )21

21212

2121 dxdxt,t;x,xFd

t,t;x,xf =

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 35

Procesos estocásticos

Estadísticos temporales.

Estadísticos de primer orden.MediaValor cuadrático medio.Varianza.

Estadísticos de segundo ordenAutocorrelación.Autocovarianza.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 36

Procesos estocásticos

Media.

La media de un proceso x(t) es la esperanza de la v.a. x(t), y se define como:

en general va a ser una función dependiente del tiempo.

Valor cuadrático medio.

El valor cuadrático medio se define como:

( ) ( )[ ] ( )∫∞

∞−

⋅== dxt;xfxtxEtmx

( )[ ] ( )∫∞

∞−

⋅= dxt;xfxtxE 22

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 37

Procesos estocásticos

Varianza.

Se define la varianza de x(t), , como la diferencia entre el valor cuadrático medio y el cuadrado del valor medio.

también va a ser una función dependiente del tiempo.

( )[ ] ( )[ ] ( )[ ]txEtxEtxVar 222X −== σ

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 38

Procesos estocásticos

Autocorrelación.La función autocorrelación es una media de conjunto de las variables aleatorias x(t1) y x(t2), definiéndose como:

va a ser una función de t1 y t2.

Autocovarianza.La autocovarianza de x(t) es la covarianza de las variables aleatorias x(t1) y x(t2):

( ) ( ) ( )[ ] ( ) 212121212121 dxdxt,t;x,xfxxtxtxEt,tR ⋅⋅⋅=⋅= ∫ ∫∞

∞−

∞−

( ) ( ) ( )( ) ( ) ( )( )[ ]

( ) ( ) ( ) ( )2x1x2121

2x21x121

tmtmt,tRt,tC

tmtxtmtxEt,tC

⋅−=

−⋅−=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 39

Procesos estocásticos

En función de la relación de la relación entre x(t1) y x(t2), se pueden dar las siguientes situaciones:

Si x(t1) y x(t2) son v.a. incorreladas u ortogonales o independientes, entonces x(t) será un proceso de incrementos incorrelados u ortogonales o independientes, cuyo caso se cumplirá:

si x(t1) y x(t2) son independientes o incorrelados.

E[x(t1)⋅x(t2)]=0 si x(t1) y x(t2) son ortogonales

Si t1=t2=t, entonces y representa el valor cuadrático medio de la v.a. x(t).

( ) ( )[ ] ( )[ ]2121 txEtxEt,tR ⋅=

( ) ( )[ ]txEt,tR 2X =

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 40

Procesos estocásticos

La importancia de la función autocorrelación radica en que describe completamente la densidad espectral de potencia y por lo tanto el contenido en potencia de un gran número de señales aleatorias.

La autocorrelación es una medida de relación o dependencia entre x(t1) y x(t2).

Cuando es necesario examinar los estadísticos conjuntos de dos procesos aleatorios reales, x(t) e y(t), se habla de correlación cruzada y covarianza cruzada, definiéndose como:

( ) ( ) ( )[ ]( ) ( ) ( )[ ] ( )[ ]2121XY21XY

2121XY

tyEtxEt,tRt,tCtytxEt,tR

⋅−=⋅=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 41

Procesos estocásticos

Se dice que dos procesos están incorrelados, si para todo t1 y t2, se cumple:

Dos procesos aleatorios independientes serán procesos incorrelados. La independencia física de dos procesos implica independencia estadística de los mismos y por lo tanto incorrelación entre ellos, sin embargo, la incorrelación de dos procesos no implica necesariamente independencia entre ambos.

Se dice que dos procesos son ortogonales si:

( ) ( )[ ] ( )[ ]( ) ( ) ( )[ ] ( )[ ] 0tyEtxEt,tRt,tC

tyEtxEt,tR

2121XY21XY

2121XY

=⋅−=⋅=

( ) ( ) ( )[ ] 0tytxEt,tR 2121XY =⋅=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 42

Procesos estocásticos

En general si un proceso x(t) es función de una variable aleatoria Y, es decir:

para t=t1 x(t1)=g(Y,t1) va a ser una transformación de una variable aleatoria.

Si se conoce la f.d.p. de Y, fY(y), se podrán calcular sus estadísticos temporales como:

( ) ( )t,Ygtx =

( )[ ] ( )[ ] ( ) ( )∫∞

∞−

⋅⋅== dyyft,Ygt,YgEtxE Y

( ) ( ) ( )[ ] ( ) ( ) ( )∫∞

∞−

⋅⋅⋅=⋅= dyyft,Ygt,Ygt,Ygt,YgEt,tR Y212121X

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 43

Procesos estocásticos

Procesos estacionarios.

Se dice que un proceso aleatorio es estacionario en sentido estricto, si sus características estadísticas no se ven afectadas por traslaciones en el tiempo, es decir, los procesos x(t) y x(t+t0) tienen las mismas características estadísticas para cualquier valor de t0.

En general dados dos procesos aleatorios x(t) e y(t), se dice que ambos procesos son conjuntamente estacionarios si las características estadísticas conjuntas de x(t) e y(t) son las mismas que las de x(t+t0) e y(t+t0) para cualquier valor de t0.

Debido a la dificultad de establecer de forma rigurosa esta propiedad, es más común utilizar la definición de proceso estacionario en sentido amplio, la cual solo va referida a los estadísticos de primer y segundo orden.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 44

Procesos estocásticos

Procesos estacionarios en sentido amplio.

Un proceso x(t) es estacionario en sentido amplio si sus estadísticos de primer orden no dependen del tiempo y los de segundo orden solo dependen del intervalo de tiempo τ = t1-t2.

Estadísticos de primer orden

Estadísticos de segundo orden

( )( )⎩

⎨⎧

=

=⇒ 2

X2X

XX

t

mtm

σσ

( ) ( ) ( )( ) ( ) ( )⎩

⎨⎧

=−==−=

⇒ττ

X21X21X

X21X21X

CttCt,tCRttRt,tR

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 45

Procesos estocásticos

Si el proceso aleatorio es estacionario se puede simplificar la notación y se puede reescribir la ecuación correspondiente a la función de autocorrelación como:

Propiedades de la función autocorrelación de un proceso estacionario x(t):

RX(τ) es una función par, es decir, RX(τ)=RX(-τ).

El máximo valor de RX(τ) se da para τ=0 .

( ) ( ) ( )[ ] ( ) ( )[ ]τττ +⋅=−⋅= txtxEtxtxERX

( ) ( )[ ]txE0R 2X =

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 46

Procesos estocásticos

Procesos conjuntamente estacionarios en sentido amplio.

Dos procesos x(t) e y(t), son conjuntamente estacionarios en sentido amplio si cumplen que su media es constante, su autocorrelacióndepende del intervalo τ y su correlación cruzada de pende solo de τ=t1-t2, es decir:

( )[ ] ( ) ( ) ( )[ ]( )[ ] ( ) ( ) ( )[ ] ( ) ( ) ( )[ ]ττ

ττττ

+⋅=⎭⎬⎫

+⋅==+⋅==

tytxERtytyER;ctetyEtxtxER;ctetxE

XYY

X

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 47

Procesos estocásticos

Propiedades de la función RXY(τ):

RXY(τ) es una función par, es decir, RXY(τ)=RXY(-τ).

RXY(τ)=RYX(-τ).

Si x(t) e y(t) son dos procesos incorrelados:

Dos procesos x(t) e y(t) son ortogonales si

( ) ( ) ( )0R0RR YXXY ⋅≤τ

( ) ( ) ( )[ ]0R0R21R YXXY +≤τ

( ) ( )[ ] ( )[ ]tyEtxERXY ⋅=τ

( ) ττ ∀= 0RXY

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 48

Procesos estocásticos

Procesos ergódicos.

En general, se dice que un proceso x(t) es ergódico si todos sus parámetros estadísticos se pueden determinar con una única realización del proceso x(t;Ei).

Esto implica que los diversos parámetros estadísticos se pueden expresar como medias temporales.

Se puede decir que un proceso es ergódico si las medias temporales coinciden con las medias estadísticas.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 49

Procesos estocásticos

Ergodicidad respecto a la media.

( )[ ] ( )

( ) ( )( )[ ] ( )txtxE

dttxT1Limtx

dxxfxtxE

2T

2TT

X

=⇒

⎪⎪⎪

⎪⎪⎪

⋅=

⋅⋅=

−∞→

∞−

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 50

Procesos estocásticos

Ergodicidad respecto a la varianza.

( )[ ] ( )

( ) ( )( )[ ] ( )txtxE

dttxT1Limtx

dxxfxtxE

222

T

2T

2

T

2

X22

=⇒

⎪⎪⎪

⎪⎪⎪

⋅=

⋅⋅=

−∞→

∞−

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 51

Procesos estocásticos

Ergodicidad respecto a la autocorrelación.

Un proceso ergódico debe ser estrictamente estacionario, sin embargo un proceso estacionario no tiene porque ser ergódico. La ergodicidad implica que una sola función muestral es representativa para caracterizar todo el proceso aleatorio

( ) ( ) ( )[ ]

( ) ( ) ( ) ( ) ( ) ( ) ( )ττττ

ττ

+⋅=⇒

⎪⎪⎭

⎪⎪⎬

⋅+⋅=+⋅

+⋅=

∫−

∞→

txtxRdttxtx

T1Limtxtx

txtxER

X2

T

2TT

X

( ) ( ) ( )[ ]

( ) ( ) ( ) ( ) ( ) ( ) ( )ττττ

ττ

+⋅=⇒

⎪⎪⎭

⎪⎪⎬

⋅+⋅=+⋅

+⋅=

∫−

∞→

tytxRdttytx

T1Limtytx

tytxER

XY2

T

2TT

XY

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 52

Procesos estocásticos

Espectro de potencia (densidad espectral de potencia).

El espectro de potencia de una señal aleatoria estacionaria, refleja la distribución de potencia en el dominio de la

El teorema de Wiener-Kintchine establece que cuando x(t) es un proceso estacionario en sentido amplio, la densidad espectral depotencia se obtiene como la transformada de Fourier de la función autocorrelación:

( ) ( ){ } ( )

( ) ( ){ } ( )∫

∫∞

∞−

∞−

⋅⋅==

⋅⋅==

ωωπ

ωτ

τττω

ωτ

ωτ

deG21GTFR

deRRTFG

jXX

1X

jXXX

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 53

Procesos estocásticos

Respuesta de un sistema L.T.I. a una entrada aleatorio.

Este estudio se va a restringir al análisis con señales aleatorias estacionarias.

Si x(t) es un proceso estacionario, de media mX y autocorrelación RX(τ), que pasa a través de un sistema LTI estable, cuya respuesta impulsiva es h(t) de tipo real, se obtendrá un proceso aleatorio y(t) también estacionario.

Sistema LTIh(t)

H(ω)

x(t)X(R (G (

ω)τ)

ω)X

X

y(t)Y(R (G (

ω)τ)

ω)Y

Y

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 54

Procesos estocásticos

Sistema LTIh(t)

H(ω)

x(t)X(R (

G (

ω)τ)

ω)X

X

y(t)Y(R (

G (

ω)τ)

ω)Y

Y

( ) ( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( )( )[ ] ( )[ ] ( )0HtxEtyE

GHG

RhhRHXYthtxty

X2

Y

XY

TF

⋅=

⋅=

∗∗−=⋅=⎯⎯→←∗=

ωωω

ττττωωω

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 55

Procesos estocásticos

Proceso aleatorio gaussiano.

Se dice que un proceso aleatorio x(t), es Gaussiano si su f.d.p. f(x;t) es Gaussiana para todos los valores de t, su f.d.p. bidimensional, f(x1,x2;t1,t2) es también una variable aleatoria Gaussiana para todo t1 y t2y su f.d.p. conjunta de mayor orden también deberá ser una variable aleatoria Gaussiana.

La importancia de los procesos aleatorios Gaussianos radica en su papel fundamental en el estudio de las comunicaciones, ya que elmodelo Gaussiano se aplica a muchos fenómenos aleatorios eléctricos.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 56

Procesos estocásticos

Las principales propiedades que cumple un proceso aleatorio Gaussianoson:

x(t) queda totalmente descrito por E[x(t)] y RX(t1,t2).

Si entonces x(t1) y x(t2) están incorreladas y son estadísticamente independientes.

Si x(t) es estacionario en sentido amplio, entonces también es estacionario en sentido estricto y ergódico.

Cualquier operación lineal sobre x(t) produce otro proceso aleatorio Gaussiano.

( ) ( )[ ] ( )[ ]2121X txEtxEt,tR ⋅=

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 57

Procesos estocásticos

Ruido blanco Gaussiano.

El ruido blanco Gaussiano es un proceso aleatorio de tipo Gaussiano y es capaz de caracterizar el ruido producido por el movimiento de los electrones debido a su agitación termal.

El ruido va a tener una distribución Gaussiana siempre que se consideren múltiples fuentes de ruido independientes.

Si a la entrada de un sistema LTI se tiene un proceso aleatorio Gaussiano, a la salida se obtiene también un proceso aleatorio Gaussiano.

Se dice que un ruido es blanco y Gaussiano si su densidad espectral de potencia es constante para todo el espectro de frecuencias.

( )2

G 0R

ηω =

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 58

Procesos estocásticos

A partir de la densidad espectral de potencia de ruido, es posible obtener la función autocorrelación:

Debido a que RR(τ)=0 para τ≠0, cualquiera dos ejemplos de ruido blanco Gaussiano van a ser incorrelados y estadísticamente independientes.

Si se tiene un ruido blanco Gaussiano cuya densidad espectral de potencia es η0/2, y este se filtra mediante un sistema LTI cuya función de transferencia es H(ω) se obtiene la señal de salida y(t):

( ) ( )[ ] ( )τδη

ωτ ⋅== −

2GTFR 0

R1

R

( ) ( ) ( ) ( )

( ) ( )[ ]210Y

20R

2Y

HTF2

R

H2

GHG

ωη

τ

ωη

ωωω

−⋅=

⋅==

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 59

Procesos estocásticos

Procesos paso banda.

En la mayoría de los sistemas de comunicación en los que se modula la información para ser transmitida, mediante una portadora fp, se cumple que el ancho de banda del canal es pequeño comparado con fp. Cuando un proceso aleatorio es modulado por una portadora para transmitirlo a través de un canal de transmisión, el resultado es un proceso aleatorio paso banda.

El ruido que se suma a la transmisión de una señal en el canal, va a ser un proceso aleatorio paso banda.

Para trabajar en estos casos es conveniente representar el ruido n(t), en términos de las componentes en fase y cuadratura.

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 60

Procesos estocásticos

( ) ( ) ( ) ( ) ( )ppcppf tsentntcostntn ϕωϕω +⋅−+⋅=

( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( ) ( ) cuadraturaencomponentetsentnttntn

faseencomponentetsentnttntn

ppc

ppf

ωω

ωωˆcos

ˆcos

−=

+=

Si n(t) es un proceso aleatorio Gaussiano paso banda de media cero y estacionario, la componente en fase nf(t) y la componente en cuadratura nc(t) también van a ser procesos aleatorios Gaussianos, conjuntamente estacionarios, de media cero e independientes, pero de banda base.

( )[ ] ( )[ ] ( )[ ]

( ) ( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( ) ( )τωττωττ

τωττωτττ

σσσσ

pnpnnn

pnpnnn

nnn

cf

senRRR

senRRRR

tnEtnEtnE

cf

cf

cf

ˆcos

ˆcos

020

222

−=

±==

===

===

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 61

Procesos estocásticos

También es posible obtener la señal de ruido en función de la envolvente R(t) y de la fase instantánea φ(t):

R(t) es un proceso aleatorio que sigue una función de distribución de Rayleigh, definida por:

φ(t) es una proceso aleatorio uniformemente distribuido entre -π y π e independiente de R(t).

( ) ( ) ( )( )( ) ( ) ( )

( ) ( )( )⎪

⎪⎩

⎪⎪⎨

=

+=⇒++=

tntn

artgt

tntntRttcostRtn

f

c

2c

2f

ppφ

φϕω

( ) ( )

( )[ ]

( )[ ]( )[ ]

⎪⎪⎪

⎪⎪⎪

⋅⎟⎠⎞

⎜⎝⎛ −=

⋅=

=

⇒⋅⋅=⎟⎟⎠

⎞⎜⎜⎝

⎛−

20

20

2

02

0

r21

20

R

22tRVar

2tRE2

tRE

ruerrf

σπσ

σπ

σσ

Teoría de la ComunicaciónDpto Teoría de la Señal y Comunicaciones - U.A.H. 62

Procesos estocásticos

Teoría de la comunicación