Download - Apuntes de Comunicaciones Digitales

Transcript
Page 1: Apuntes de Comunicaciones Digitales

UNIVERSIDAD DE CONCEPCIONFACULTAD DE INGENIERIA

DEPARTAMENTO DE INGENIERIA ELECTRICA

APUNTESCOMUNICACIONES DIGITALES

Cod. 549 175 - Ingenierıa Civil en Telecomunicaciones

Prof. Sebastian E. Godoy

Tercera EdicionJuly 23, 2010

Page 2: Apuntes de Comunicaciones Digitales

Prologo

El presente apunte, nace bajo la necesidad de lograr un mejor entendimiento de los alumnos quetoman la asignatura de Comunicaciones Digitales, obligatoria para la carrera de IngenierıaCivil en Telecomunicaciones de la Facultad de Ingenierıa, Universidad de Concepcion.

Esta asignatura es planteada con la concepcion original de que el alumno maneja los con-ceptos de los sistemas de comunicacion analogicos (“Sistemas de Comunicacion” Cod. 549164) y principalmente de estadıstica y procesos aleatorios (“Procesos Aleatorios” y “EstadısticaAplicada” Cods. 549 150, 549 103 respectivamente) cursados como requisitos previos de lapresente.

Sinceramente, quisiera agradecer a todos los alumnos que han cursado la asignatura ya queen forma directa o indirecta han aportado al desarrollo de este documento mediante sugerencias,comentarios o apoyo en la escritura.

El documento esta totalmente escrito utilizando LATEX mediante la interfaz grafica Kilepara Ubuntu Linux. El formato utilizado en el desarrollo de este documento, esta basado enlos apuntes del Prof. Jose Espinoza, con las respectivas modificaciones conforme el curso lorequiere.

Sebastian E. Godoy

Ingeniero Civil Electronico

Magister en Ing. Electrica

Colaborador Academico

Departamento de Ing. Electrica

Facultad de Ingenierıa

Universidad de Concepcion

Casilla 160-C, Correo 3

Concepcion, CHILE

Tel: +56 (41) 2203633

Fax: +56 (41) 2246999

e-mail: [email protected]

web: http://www.udec.cl/~segodoy

i

Page 3: Apuntes de Comunicaciones Digitales

Indice General

Prologo i

1 Introduccion 11.1 Sistema de Comunicaciones Digitales . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 ¿Por que comunicaciones digitales? . . . . . . . . . . . . . . . . . . . . . 21.2 Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2.1 Revision Basica de Conceptos . . . . . . . . . . . . . . . . . . . . . . . . 21.2.2 Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2.3 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3 Procesos Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.3.1 Estacionalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.4 Transformada y Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 81.4.1 Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.4.2 Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.5 Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.5.1 Senales de Energıa y Potencia . . . . . . . . . . . . . . . . . . . . . . . . 131.5.2 Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.5.3 Densidad Espectral de Energıa (ESD) . . . . . . . . . . . . . . . . . . . . 141.5.4 Densidad Espectral de Potencia (PSD) . . . . . . . . . . . . . . . . . . . 15

1.6 Conversion Analogo-Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.6.1 Muestro de una Senal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.6.2 Cuantizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Teorıa de la Informacion 212.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.2 Modelo de las Fuentes de Informacion . . . . . . . . . . . . . . . . . . . . . . . . 21

2.2.1 Concepto de Informacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.2.2 Medida de la Informacion . . . . . . . . . . . . . . . . . . . . . . . . . . 222.2.3 Entropıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.2.4 Entropıa Conjunta y Condicional . . . . . . . . . . . . . . . . . . . . . . 242.2.5 Informacion Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.3 Teorema de Codificacion de la Fuente . . . . . . . . . . . . . . . . . . . . . . . . 262.3.1 Codigo Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.3.2 Codigo Lempel-Ziv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

ii

Page 4: Apuntes de Comunicaciones Digitales

2.3.3 Codigo ASCII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.4 Representacion de Canales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.4.1 Canales con Ruido Aditivo Gaussiano . . . . . . . . . . . . . . . . . . . . 332.4.2 Canales con Ruido y Filtro . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.5 Capacidad del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.5.1 Capacidad de Canal Gaussiano . . . . . . . . . . . . . . . . . . . . . . . 36

3 Modulacion en Banda Base 383.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383.2 Muestreo de Senales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.2.1 Recuperacion de Senales Muestreadas . . . . . . . . . . . . . . . . . . . . 383.2.2 Errores en el Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393.2.3 Muestreo Natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423.2.4 Sample-and-Hold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.3 Cuantizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443.3.1 Cuantizacion Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443.3.2 Cuantizacion Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.4 Codificacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543.5 Fuentes de Corrupcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3.5.1 Efectos del Muestreo y la Cuantizacion . . . . . . . . . . . . . . . . . . . 543.5.2 Efectos del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.6 Pulse-Amplitude Modulation (PAM) . . . . . . . . . . . . . . . . . . . . . . . . 553.7 Pulse-Code Modulation (PCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3.7.1 Representacion de Dıgitos Binarios . . . . . . . . . . . . . . . . . . . . . 573.7.2 Tipos de Cuantizadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 613.7.3 PCM Diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3.8 Modulacion Delta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.8.1 Modulacion Delta Adaptiva . . . . . . . . . . . . . . . . . . . . . . . . . 67

4 Modulaciones Digitales Pasabanda 694.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 694.2 Senales y Ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4.2.1 Ruido en Sistemas de Comunicaciones . . . . . . . . . . . . . . . . . . . 704.2.2 Representacion Geometrica de Senales . . . . . . . . . . . . . . . . . . . 71

4.3 Tecnicas de Modulacion Digital Pasabanda . . . . . . . . . . . . . . . . . . . . . 764.3.1 Amplitude Shift Keying (ASK) . . . . . . . . . . . . . . . . . . . . . . . 774.3.2 Frequency Shift Keying (FSK) . . . . . . . . . . . . . . . . . . . . . . . . 774.3.3 Phase Shift Keying (PSK) . . . . . . . . . . . . . . . . . . . . . . . . . . 774.3.4 Amplitude Phase Shift Keying (APK) . . . . . . . . . . . . . . . . . . . 78

4.4 Deteccion de Senales en la presencia de AWGN . . . . . . . . . . . . . . . . . . 794.4.1 Region de Decision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 794.4.2 Receptor de Correlacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 804.4.3 Detector por Matched-Filter . . . . . . . . . . . . . . . . . . . . . . . . . 84

4.5 Deteccion Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

iii

Page 5: Apuntes de Comunicaciones Digitales

4.5.1 Deteccion Coherente para PSK . . . . . . . . . . . . . . . . . . . . . . . 864.5.2 Deteccion Coherente para PSK Multiple . . . . . . . . . . . . . . . . . . 874.5.3 Deteccion Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . . . 89

4.6 Deteccion No-Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 904.6.1 Deteccion No-Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . 904.6.2 Deteccion de PSK Diferencial . . . . . . . . . . . . . . . . . . . . . . . . 94

4.7 Desempeno de Error en Sistemas Binarios . . . . . . . . . . . . . . . . . . . . . 964.7.1 Probabilidad de Error de Bit para BPSK Coherente . . . . . . . . . . . . 974.7.2 Probabilidad de Error de Bit para DPSK . . . . . . . . . . . . . . . . . . 994.7.3 Probabilidad de Error de Bit para FSK Coherente . . . . . . . . . . . . . 994.7.4 Probabilidad de Error de Bit para FSK No-Coherente . . . . . . . . . . . 100

5 Introduccion a la Codificacion 1035.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1035.2 Codigos Lineales por Bloque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.2.1 Matrices de Generacion y Paridad . . . . . . . . . . . . . . . . . . . . . . 1095.3 Codigos Convolucionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

iv

Page 6: Apuntes de Comunicaciones Digitales

Capıtulo 1

Introduccion

1.1 Sistema de Comunicaciones Digitales

En el curso anterior de Sistemas de Comunicaciones, se introdujo el concepto basico de un sis-tema de comunicacion. Este consta de tres partes fundamentales: transmisor, canal y receptor.A su vez, el transmisor esta compuesto por el codificador y el modulador. El canal es aquel queagrega atenuacion, ruido, distorsion e interferencia que deben ser “compensadas” en el receptormediante el proceso de deteccion (demodulacion y decoficacion) y posiblemente un proceso defiltrado (ecualizacion).

Resulta importante recordar que las limitaciones que se tienen para obtener comunicacionesconfiables en un sistema de transmision de senales analogas, estan determinadas por el canalde comunicacion. En particular, dicho canal debe permitir el paso de la senales, teniendo unancho de banda limitado para tales efectos.

El concepto de comunicaciones digitales nace de la necesidad de transmitir informacion queno se encuentra como senales continuas sino como un mensaje binario. Cuando se habla demensaje binario se hace referencia a una secuencia de dos tipos de pulsos de forma conocidaocurriendo en intervalos regulares de tiempo, T . A pesar de que la forma de dichos pulsos esconocida a-priori, la ocurrencia de ceros o unos es desconocida por lo que se consideran senalesno determinısticas. La tasa a la que se muestran los pulsos es a R = 1

T, siendo T la duracion

de cada pulso tal como se dijo anteriormente.El presente curso tiene entonces por objetivo, familirizar a los alumnos con el concepto de

enviar informacion en forma digital. Para lograr esto, el curso se subdividira en dos grandespartes. La primera parte considerara como llegar de una senal analoga a una digital pasando porel proceso de muestreo, cuantizacion y codificacion. Esto se logra aplicando teorıa estadısticasobre las fuentes de informacion y el canal, para fijar las cotas que se puedan lograr de lacomunicacion en sı. Entiendase como cotas, la maxima compresion de datos y maxima tasade bits por segundo. Esta parte se concluye estudiando los modelos clasicos para realizar estaconversion analogo-digital, como lo son PCM o PAM.

La segunda gran etapa del curso incluye la transmision de esta informacion mediante canalespasabanda, de manera similar a lo que se estudio en comunicaciones analogas. Esto quiere decirque se estudiara la modulacion y demodulacion digital en amplitud, frecuencia y fase (ASK,FSK y PSK respectivamente), para concluir con una introduccion a la codificacion que es muy

1

Page 7: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

importante al momento de hablar de una transmision segura de datos.

1.1.1 ¿Por que comunicaciones digitales?

Existen muchas razones que hacen preferibles las comunicaciones digitales frente a las analogas.La primera ventaja es que las senales digitales, a diferencia de las analogas, pueden ser recon-struıdas (regeneradas) utilizando repetidores. Estos vuelven a amplificar la senal recuperandolas modificaciones y la degradacion que pudo haber sufrido dicha senal en el canal de trans-mision. Por otra parte, los circuitos digitales son mas faciles de reproducir, mas economicosy mas flexibles, pues sin importar si la senal es de television, telefono o telegrafo, siempre setratara de la misma forma para la transmision ya que un bit es un bit. Ademas los circuitosdigitales son menos propensos a distorciones de interferencia que los analogos dados los rangosque existen para cada estado digital; a esto se agrega que existen metodologıas para detectarerrores en la transmision.

Las principales ventajas y desventajas que presentan las Comunicaciones Digitales se mues-tran en la Tabla 1.1.

Tabla 1.1: Ventajas y Desventajas de las Comunicaciones DigitalesVentajas Desventajas

• Generalmente los errores puedenser corregidos.

• Resulta sencillo implementar laencriptacion.

• Se puede tener un alto rangodinamico de los datos.

• Generalmente se requiere unmayor ancho de banda que concomunicaciones analogas.

• Requieren sincronizacion.

1.2 Probabilidades

Como se dijo en la seccion anterior, dado que no se conoce a-priori la ocurrencia de ceros o unosen una sena digital, entonces no se puede tratar como una senal determinıstica. Por lo tanto, esnecesario recordar algunos conceptos de estadıstica como variables y procesos aleatorios, valoresperado, autocorrelacion y estacionalidad de procesos aleatorios.

1.2.1 Revision Basica de Conceptos

Se llama Evento a un resultado en particular de un experimento, Espacio Muestral Ω a lacoleccion de todos los resultados de eventos posibles.

2

Page 8: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

La probabilidad de que ocurra un evento A denotada por P (A), esta definida como

P (A) = limn→∞

nAn

en donde nA es al numero de veces que A aparece en los n intentos en que se realizo el ex-perimento. Ası, P sera una probabilidad si es una funcion de eventos y satisface las siguientescondiciones:

1. P (A) ≥ 0 para cualquier evento A.

2. P (Ω) = 1.

3. Si A1, A2, . . . , An son eventos disjuntos, entonces P (A1A2 · · ·An) =∑n

i=1 P (Ai)

4. P (A) < 1 para cualquier evento A.

El concepto de Probabilidad Condicional, busca cuantificar la probabilidad de que ocurraun evento A, dado que ya ocurrio un evento B. Se denota por P (A|B) y esta definida por:

P (A|B) =P (A,B)

P (B)(1.1)

en donde p(B) 6= 0.Por otro lado, el Teorema de Bayes dice que:

P (A,B) = P (B|A)P (A) = P (A|B)P (B) (1.2)

Luego, la probabilidad condicional estara dada por

P (A|B) =P (B|A)P (A)

P (B)

Se dice que dos eventos A y B son independientes si y solo si

P (A|B) = P (A) ∧ P (B|A) = P (B)

Ejemplo 1.1 - Probabilidad de Error.Considere el canal de comunicacion digital de 1 bit. Determine la probabilidad del evento error,considerando que el transmisor tiene la misma probabilidad de enviar un cero o un uno.Sol. Los resultados posibles son: recibir un cero cuando se envio un cero o cuando se envio ununo, o recibir un uno cuando se envio un cero o un uno, lo que podrıa ser resumido en Ω =(0t, 0r), (0t, 1r), (1t, 0r), (1t, 1r). Ası el evento error estara determinado por el subconjuntoE = (0t, 1r), (1t, 0r). Asumiendo que la probabilidad de recibir un error puntual es p, entoncesP (0r|1t) = P (1r|0t) = p, luego se tiene por Teorema de Bayes que P (0t, 1r) = P (0r|1t)P (0t) =0.5p y de igual forma P (1t, 0r) = 0.5p. Ahora bien, la probabilidad del evento error seraP (E) = P [(0t, 1r), (1t, 0r)] = P (0t, 1r) + P (1t, 0r) = 0.5p+ 0.5p = p.

3

Page 9: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

1.2.2 Variables Aleatorias

Una variable aleatorioa X(A) corresponde a una relacion funcional entre un evento aleatorioA y un numero real. En general por notacion simplemente se utiliza solo X como designacionpara la variable aleatoria, dejando la relacion con el evento A de forma implıcita.

La Funcion de Distribucion de Probabilidad denotada por FX(x) de la variable aleato-ria X esta determinada por:

FX(x) = P (X ≤ x) (1.3)

en donde P (X ≤ x) es la probabilidad de que el valor de la variable aleatoria sea menor o igualque el numero real x. La funcion de distribucion tiene las siguientes propiedades:

1. 0 ≤ FX(x) ≤ 1.

2. FX(x1) ≤ FX(x2), si x1 ≤ x2.

3. FX(−∞) = 0.

4. FX(+∞) = 1.

La Funcion de Densidad de Probabilidad (PDF) denotada por fX(x) esta definida por:

fX(x) =dFX(x)

dx(1.4)

y recibe su nombre en base a que la probabilidad del evento x1 ≤ X ≤ x2 es:

P (x1 ≤ X ≤ x2) = P (X ≤ x2)− P (X ≤ x1)

= FX(x2)− FX(x1)

=

∫ x2

x1

fX(x) dx

La PDF tiene las siguientes propiedades:

1. Es siempre una funcion no negativa: fX(x) ≥ 0.

2. Tiene un area total unitaria:∫∞−∞ fX(x) dx = FX(+∞)− FX(−∞) = 1

1.2.3 Valor Esperado

Se define el Valor Esperado o esperanza de una variable aleatoria continua X como

E X =

∫ ∞−∞

x pX(x) dx (1.5)

y a la vez corresponde a la media de X, mX , o primer momento. El operador E . tiene lassiguientes propiedades

4

Page 10: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

Linealidad. Si Xi, i = 1, 2, . . . , n son diferentes variables aleatorioas y ai son escalares deter-minısticos, entonces

E

∑i

aiXi

=∑i

aiE Xi

Transformacion Lineal. Sean A y B matrices determinısticas, entonces

E AX = A E X

E XB = E X B

Invarianza de Transformacion. Sea Y = g(X) una funcion evaluada sobre el vector devariables aleatoria X, entonces∫ +∞

−∞Y pY (Y ) dY =

∫ +∞

−∞g(X)pX(X) dX ,

por lo queE Y = E g(X) ,

aun cuando las integrales sean calculadas sobre diferentes funciones de densidad de prob-abilidad.

Se define tambien el n-esimo momento de la variable aleatoria mediante:

E Xn =

∫ ∞−∞

xn pX(x) dx (1.6)

en donde se puede notar que la media corresponde al primer momento (n = 1) y la mediacuadratica sera el segundo momento. Ademas se pueden definir los Momentos Centrales quecorresponden a los momentos de la diferencia entre X y su media mX . La Varianza de Xcorresponde al segundo momento central, por lo que esta definida por:

var X = E

(X −mX)2

=

∫ ∞−∞

(x−mX)2 pX(x) dx (1.7)

la que tambien se denota por σ2X . Su raiz cuadrada, σX , corresponde a la llamada desviacion

estandar de X. La relacion que existe entre la varianza y el valor medio cuadratico esta dadapor:

σ2X = E

(X −mX)2

= E

X2 − 2mXX +m2

X

= E

X2− E X2 , (1.8)

por lo que en variables de media nula, la varianza corresponde a la esperanza del valor cuadraticode la variable en sı. Para cualquier constante a, se verifican para la varianza:

1. var aX = a2var X

2. var a = 0

3. var X + a = var X .

Es importante mencionar que para variables aleatorias independientes, el valor esperado seradado por el producto de los valores esperados individuales, E XY = E XE Y .

5

Page 11: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

1.3 Procesos Aleatorios

Un proceso aleatorio puede ser visto como una funcion de dos variables: un evento A y eltiempo, por lo que para cada instante de tiempo se tienen diferentes funciones. Ası para uninstante tk, la funcion X(A, t) es una variable aleatoria X(tk). Por notacion, simplemente sehablara de procesos aleatorios marcando la dependencia del tiempo, vale decir X(A, t) ≡ X(t)dejando la dependencia funcional al evento A de forma implıcita.

Dada la incertidumbre envuelta en los procesos aleatorios, solo se puede dar una descripcionparcial de ellos. Para esto se utiliza el concepto de la media y de la funcion de autocorrelacion.La media de un proceso aleatorio en tiempo continuo esta definido por la Ecuacion (1.5); para elcaso de procesos aleatorios en tiempo discreto, la integral cambia a sumatoria finita, y se tieneque considerar que se evalua en el instante tk, vale decir se calcula mX(tk). Indirectamente, estoquiere decir que la variable aleatoria X corresponde a la observacion del proceso aleatorio en elinstante tk.

La autocorrelacion de un proceso aleatorio se estudia en la siguiente seccion.

Ejemplo 1.2 - Procesos Aleatorios.Considere un detector inalambrico que se modela linealmente por la ecuacion Y (t) = aX(t)+b+U(t) en donde a y b son constantes determinısticas; X(t) es una variable aleatoria uniformementedistribuida en el rango [Xmin, Xmax]. Considerando que U(t) es un ruido Gaussiano con medianula y varianza conocida, se pide encontrar las constantes a y b.Sol. Asumiendo que los procesos aleatorios son estacionarios, la media estara determinadapor E Y = E aX(t) + b+ U(t) = aE x + b. Por otra parte, su varianza estara dadapor σ2

Y = a2σ2X + σ2

u. Ası, la ganancia sera a =√σ2Y − σ2

u/σX , y el offset se puede despejardirectamente y obtener b = E y − aE x. Esto es valido pues los valores de E x y σX sonconocidas desde la distribucion uniforme.

1.3.1 Estacionalidad

Autocorrelacion de Procesos Aleatorios

La autocorrelacion de un proceso aleatorio X(t) se define como

R (t1, t2) = E X(t1)X(t2) (1.9)

en donde X(t1) y X(t2) corresponden a la observacion del proceso aleatorio en los instante t1 yt2 respectivamente.

Definicion de Estacionalidad

Un proceso aleatorio X(t) es llamado Estacionario en el Sentido Estricto si ninguna de sus es-tadısticas dependen de ninguna forma del tiempo. Un proceso aleatorio es llamado Estacionarioen Sentido Amplio (wide-sense stationary, WSS) si su media y su funcion de autocorrelacion no

6

Page 12: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

varıan ni dependen del tiempo. Ası un proceso es WSS si:

E X(t) = mX y, RX(t1, t2) = RX(t2 − t1) .

Considerando que para un proceso aleatorio WSS, la autocorrelacion dependera solo dela diferencia temporal y no del instante de tiempo en sı, cualquier par de valores de X(t)que esten separados en el tiempo por τ = t2 − t1 tienen el mismo valor de correlacion. Ası,para sistemas estacionarios la autocorrelacion se expresa mediante la relacion R (t1, t2) ≡ R (τ).Luego, para un proceso aleatorio real y WSS, su funcion de autocorrelacion, R (τ), tiene lassiguientes propiedades:

1. Es simetrica con respecto al origen: R (τ) = R (−τ).

2. El maximo ocurre en el origen: R (τ) ≤ R (0) , ∀τ .

3. El valor en el origen corresponde a la energıa/potencia de la senal

No resulta dificil notar que si un proceso es estrictamente estacionario, tambien lo es ensentido amplio, pero no viceversa. En el presente curso se utilizara el concepto de estacionalidadpara hablar de procesos WSS, dejando en forma explıcita cuando se hable de estacionalidadestricta.

Ejemplo 1.3 - Proceso Aleatorio Estacionario.Sea el siguiente proceso aleatorio X(t) = A cos(ω0t+ θ), con A y ω0 constantes y θ ∼ U [0, 2π].Determine su estacionalidad.Sol. La media del proceso es E X = E A cos(ω0t+ θ) = 0 ya que se calcula la integralsobre un periodo completo de la fase. La funcion de autocorrelacion para este proceso estadeterminada por

R(t1, t2) = E A cos(ω0t1 + θ)A cos(ω0t2 + θ)

= A2E

1

2cos[ω0(t1 − t2)] +

1

2cos[ω0(t1 + t2) + 2θ]

=

A2

2cos[ω0(t1 − t2)] ,

pues el segundo termino corresponde al calculo de la integral sobre el periodo completo de lafase y se hace nulo. Dado que la funcion de autocorrelacion depende de la diferencia de tiempoy no del valor absoluto, entonces corresponde a un proceso aleatorio estacionario.

Las cantidades y parametros electricos fundamentales pueden ser relacionados con los mo-mentos de un proceso aleatorio de la siguiente manera

1. La media mX es igual al valor DC de la senal.

2. La cantidad m2X es igual a la potencia normalizada de la componente continua.

7

Page 13: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

3. El segundo momento de X(t), E X2(t), es igual a la potencia normalizada total.

4. La cantidad√

E X2(t) es igual al valor rms de la senal de corriente o voltaje.

5. La varianza es igual a la potencia normalizada promedio en la componente AC de la senal.

6. La desviacion estandar es el valor RMS de la componente alterna de la senal.

1.4 Transformada y Series de Fourier

1.4.1 Series de Fourier

Las series de Fourier permiten descomponer cualquier senal periodica x(t) en una sumatoriade exponenciales complejas (senos y cosenos), lo que es de gran ayuda en comunicaciones alrealizar analisis de sistemas lineales e invariantes en el tiempo (LTI). Una serie de Fourier es laexpansion ortogonal de una senal periodica con periodo T0, cuando el set de senales ejnω0t∞n=−∞es utilizado como base para dicha expansion. Notese que ω0 = 2πf0 = 2π 1

T0. Con esta base,

cualquier senal periodica1 x(t) puede ser expresada como

x(t) =∞∑

n=−∞

xnejnω0t , (1.10)

en donde los terminos xn son llamados coeficientes de la serie de Fourier de la senal x(t), yestan definidos por

xn =1

T0

∫ α+T0

α

x(t)e−jnω0t dt , (1.11)

La variable α es cualquier numero real elegido correctamente. La frecuencia f0 es llamadafrecuencia fundamental de la senal periodica, y las frecuencias fn = nf0 son llamados los n-esimos armonicos. En la mayorıa de los casos, tanto α = 0 como α = −T0/2 son buenaselecciones dependiendo de la paridad de la senal.

Este tipo de series de Fourier es conocido como forma compleja de la series de Fourier, ypuede ser aplicada tanto en senales reales como complejas, mientras estas sean periodicas. Engeneral, los coeficientes de la serie de Fourier xn son numeros complejos aun cuando x(t) seauna senal real.

Ejemplo 1.4 - Series Complejas de Fourier.

Para la la senal w(t) =

A , t ∈ (2k T0

2, (2k + 1)T0

2]

0 , i.o.c.en donde el parametro k asume los

valores k = 0,±1,±2, . . . , se pide encontrar su serie de Fourier.

Sol. Se comienza calculando el valor continuo: c0 = AT0

∫ T02

0dt = A

2. Ahora, los otros valores de

1En rigor, la condicion suficiente para la existencia de una serie de Fourier, es que la senal w(t) satisfaga lascondiciones de Dirchlet. Para mas informacion consultar este link.

8

Page 14: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

los coeficientes seran: cn = AT0

∫ T02

0e−jnω0tdt = j A

2πn(e−jnπ − 1). Dado que para n par, e−jnπ = 1

y para n impar e−jnπ = −1, los coeficientes estan dados por:

cn =

A2

, n = 0−j A

nπ, n impar

0 , n par.

En el ejemplo anterior, se obtuvo que el valor continuo de la senal es la mitad de la amplitudmaxima de la senal cuadrada, lo que es concordante con la intuicion referente al valor mediode dicha senal. Si se considera que A = 2, T0 = 20[ms], entonces x0 = 1, xn = −j 2

nπpara

multiplos impares de la frecuencia fundamental f0 = 1T0

= 50[Hz], y cero para el resto. Esteresultado se puede apreciar en la Fig. 1.1, en donde se ha despreciado el termino de fase −j ysolo se dibuja el valor absoluto del espectro.

Fig. 1.1: Senal y espectro discreto obtenido mediante la serie de Fourier del Ejemplo 1.4

Se puede demostrar que para una senal periodica real, x−n = x∗n. En efecto, se tiene que

x−n =1

T0

∫ α+T0

α

x(t)e−j(−n)ω0t dt

=1

T0

∫ α+T0

α

x(t)ejnω0t dt

=1

T0

∫ α+T0

α

x(t)[e−jnω0t

]∗dt

= x∗n .

Ahora bien, como el n-esimo coeficiente es complejo, se puede descomponer en su parte real y

9

Page 15: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

compleja como sigue

xn =an − jbn

2.

Ası, la parte negativa estara determinada por x−n = x∗n = an+jbn2

. Luego de usar la relacion deEuler dada por e−jnω0t = cosnω0t− j sinnω0t , entonces se obtiene que

an =2

T0

∫ α+T0

α

x(t) cosnω0t dt (1.12)

bn =2

T0

∫ α+T0

α

x(t) sinnω0t dt , (1.13)

y, por lo tanto

x(t) =a0

2+∞∑n=1

an cosnω0t+ bn sinnω0t . (1.14)

Notese que para n = 0, siempre se tiene que b0 = 0, entonces a0 = 2w0. Esta relacion se conocecomo la serie de Fourier trigonometrica.

Definiendo cn =√a2n + b2

n y θn = − tan−1 bnan

, y usando la relacion a cosφ + b sinφ =√a2 + b2 cos

(φ− tan−1 b

a

), entonces la Ecuacion (1.14) se puede escribir de la forma

x(t) =a0

2+∞∑n=1

cn cos(nω0t+ θn) , (1.15)

que es la tercera forma de la expansion en series de Fourier para senales reales periodicas.Es importante considerar que si x(t) es real y par, vale decir x(−t) = x(t), entonces bn = 0,

por lo que todos los coeficientes xn son reales y la serie trigonometrica esta dada solamente porla suma de cosenos. Similarmente, para una senal real e impar, an = 0 por lo que todos los xnson imaginarios y la serie esta determinada por la suma de senos.

La suma del producto entre los coeficientes de la serie de Fourier y las exponenciales esteoricamente infinita, lo que resulta imposible de conseguir en la realidad. Es por esto queen general se utilizan aproximaciones de la representacion en series con un numero finito dearmonicos. La Fig. 1.2 muestra distintas aproximaciones del pulso rectangular para diferentesvalores de armonicos. A medida que el numero de armonicos se incrementa, menos error se tieneentre ambas senales. Las oscilaciones que presenta la senal aproximada en cada canto recibeel nombre de fenomeno de Gibbs2 y se origina porque la n-esima suma parcial de la serie deFourier tiene grandes oscilaciones cerca del salto, lo que a su vez incrementa el maximo valorde la suma sobre el de la funcion.

1.4.2 Transformada de Fourier

La transformada de Fourier corresponde a una extension de las series de Fourier para senalesno periodicas. La transformada de Fourier de una senal denotada por x(t) que satisface las

2Para mas informacion, ud. puede visitar este link.

10

Page 16: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

Fig. 1.2: Aproximaciones para un pulso rectangular del Ejemplo 1.4, usando series de Fourier

condiciones de Dirichlet se denota por X(f), o, equivalentemente, F [x(t)], y esta definida por

F [X(t)] ≡ X(f) =

∫ ∞−∞

x(t)e−j2πft dt . (1.16)

La transformada de Fourier inversa esta dada por

F−1 [X(f)] ≡ x(t) =

∫ ∞−∞

X(f)ej2πft df . (1.17)

Si la senal x(t) es real, entonces su transformada de Fourier X(f) satisface la simetrıaHermitiana, es decir X(−f) = X∗(f). Las propiedades de la transformada de Fourier se listana continuacion.

1. Linealidad. La transformada de Fourier de una combinacion lineal de dos o mas senales,es la combinacion lineal de las correspondientes transformadas de Fourier:

F

[∑i

αixi(t)

]=∑i

αiF [xi(t)] .

2. Dualidad. Si X(f) es la transformada de Fourier de x(t), entonces

F [X(t)] = x(−f) .

3. Corrimiento en el tiempo. Un desplazamiento en el dominio del tiempo, resulta en undesplazamiento en la fase del dominio de la frecuencia:

F [x(t− t0)] = e−j2πft0F [x(t)]

11

Page 17: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

4. Escalamiento. Una expansion en el dominio del tiempo resulta en una contraccion en eldominio de la frecuencia, y viceversa:

F [x(at)] =1

|a|F [x(t)] , a 6= 0

5. Modulacion. La multiplicacion por una exponencial en el dominio del tiempo, se mani-fiesta como un desplazamiento en el dominio de la frecuencia.

F[ej2πf0tx(t)

]= X(f − f0)

6. Derivacion. La derivacion en el dominio del tiempo corresponde a la multiplicacion porjω en el dominio de la frecuencia:

F

[dn

dtnx(t)

]= (j2πf)nF [x(t)]

7. Convolucion. La convolucion en el dominio del tiempo es equivalente a la multiplicacionen el dominio de la frecuencia, y viceversa.

F [x(t) ∗ y(t)] = F [x(t)]F [y(t)]

F [x(t)y(t)] = F [x(t)] ∗ F [y(t)]

Para una senal periodica x(t) con periodo T0, cuyos coeficientes de Fourier son denominadospor xn, vale decir

x(t) =∞∑

n=−∞

xnejnω0t ,

tiene por transformada de Fourier

X(f) = F

[∞∑

n=−∞

xnejnω0t

]

=∞∑

n=−∞

xn F[ejnω0t

]=

∞∑n=−∞

xn δ (f − nf0) .

En otras palabras, la transformada de Fourier de una senal periodica consiste en impulsos a losmultiplos enteros de la frecuencia fundamental (armonicos) de la senal original, con un peso igualal valor de los coeficientes de Fourier. En conclusion, para una senal periodica, su transformadade Fourier corresponden a los coefficientes xn ubicados en los armonicos correspondientes aln-esimo multiplo de la frecuencia fundamental.

12

Page 18: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

1.5 Densidad Espectral

La densidad espectral de una senal, caracteriza la distribucion de la energıa o potencia dedicha senal en el dominio de la frecuencia, dependiendo si se trabaja con senales de energıa opotencia, respectivamente. Este concepto se torna muy importante con la presencia de filtrosen los sistemas de comunicaciones, pues se requerira evaluar la senal y el ruido a la salida deun filtro. Para realizar esta tarea, se utiliza la Densidad Espectral de Energıa (ESD, EnergySpectral Density) o la Densidad Espectral de Potencia (PSD, Power Spectral Density).

1.5.1 Senales de Energıa y Potencia

Una senal electrica puede ser representada como un voltaje v(t) o una corriente i(t), con unapotencia instantanea p(t) a traves del resistor R, definida por p(t) = v2(t)R−1 = i2(t)R. Ensistemas de comunicaciones se trabaja con el concepto de “potencia normalizada” que involucraasumir que el valor de la resistencia R es unitario (R=1Ω), por lo que ambos lados de la ecuacionanterior tienen la misma forma sin importar si se habla de senales de voltaje o de corriente.Entonces, el concepto de potencia normalizada permite expresar la potencia instantanea de laforma

p(t) = x2(t) (1.18)

en donde x(t) representa indistintamente una senal de voltaje o de corriente.La energıa y la potencia promedio disipada durante el intervalo de tiempo ]− T

2, T

2[ por una

senal real con potencia instantanea expresada por la Ecuacion (1.18), puede ser escrita como:

ET ,∫ T

2

−T2

x2(t) dt y, PT ,1

T

∫ T2

−T2

x2(t) dt

El desempeno de un sistema de comunicaciones depende de la energıa de la senal detectada.Mientras mayor sea la energıa de las senales detectadas, el proceso de deteccion se hara conmenos errores que si las senales fueran de energıa mas baja. Por otro lado, la potencia es latasa a la cual la energıa es entregada y es importante porque determina las condiciones detransmision/recepcion de las senales. Entonces, en el analisis de senales de comunicaciones,resulta preferible trabajar con senales de energıa. La senal x(t) sera considerada una senal deenergia si y solo si 0 < E <∞, en donde

E , limT→∞

∫ T2

−T2

x2(t) dt =

∫ ∞−∞

x2(t) dt (1.19)

En el mundo real todas las senales tienen energıa finita, sin embargo como consecuencia de ladefinicion matematica de las senales periodicas, estas existen para todo tiempo por lo que tienenenergıa infinita. Ademas, las senales aleatorias tambien tienen energıa infinita, por lo que serequiere definir una clase de senales llamadas senales de potencia, que seran aquellas senalesno nulas que tienen potencia promedio finita para todo el tiempo, en sımbolos 0 < P <∞, endonde:

P , limT→∞

1

T

∫ T2

−T2

x2(t) dt (1.20)

13

Page 19: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

Las definiciones de senales de energıa y potencia son mutuamente excluyentes, ya que unasenal de energıa tiene energıa finita pero potencia media nula, en cambio una senal de potenciatiene potencia media finita pero energıa infinita. Como norma general, las senales periodicas ylas senales aleatorias son consideradas de potencia. Por otro lado, las senales que a la vez sonno periodicas y determinısticas son clasificadas como senales de energıa.

1.5.2 Teorema de Parseval

Dada la importancia de este teorema en las senales utilizadas en comunicaciones, es necesarioenunciarlo en forma independiente y en forma previa a las definiciones de ESD y PSD.

Este teorema esta dado por:∫ ∞−∞|x(t)|2 dt =

∫ ∞−∞|X(f)|2 df (1.21)

en donde X(f) es la transformada de Fourier de la senal no periodica x(t). Notese que el ladoizquierdo de la ecuacion del teorema corresponde a la definicion de energıa media definida en laEcuacion (1.19)

La interpretacion de la Ecuacion (1.21) y del teorema en sı, es que la energıa total contenidaen la senal x(t) sumada a lo largo de todo el tiempo t es igual a la energıa total de la transformadade Fourier de x(t), X(f), sumada a lo largo de todas las componentes de frecuencia f .

1.5.3 Densidad Espectral de Energıa (ESD)

La energıa total de una senal real x(t) definida para todos los numeros reales, esta dada por laEcuacion (1.19). Utilizando el Teorema de Parseval, se puede relacionar la energıa de dicha senalexpresada en el dominio del tiempo, con la energıa expresada en el dominio de la frecuencia,luego

E =

∫ ∞−∞|X(f)|2 df .

Esto significa que la energıa media de una senal x(t) esta dada por el area bajo la curva |X(f)|2.Como consecuencia, la funcion en frecuencia |X(f)|2 define como la energıa se distribuye paratodas las componentes de frecuencia f . Ası, en palabras mas formales, si se define la magnitudal cuadrado del espectro como:

ξ(f) , |X(f)|2 , (1.22)

entonces la cantidad ξ(f) es la forma de onda de la Densidad Espectral del Energıa (ESD) dela senal x(t).

Notese que esta definicion de ESD requiere que la transformada de Fourier de la senalexista, lo que matematicamente implica que las senales sean integrables cuadraticamente. Poresta razon, es mas comun hablar de densidad espectral de potencia (PSD) que describe comola potencia de la senal esta distribuıda en las distintas frecuencias.

14

Page 20: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

1.5.4 Densidad Espectral de Potencia (PSD)

La PSD es particularmente importante en sistemas de comunicaciones pues describe la dis-tribucion de una senal de potencia en el dominio de la frecuencia, permitiendo determinar comodicha senal pasa atraves de una red de comunicaciones de respuesta en frecuencia conocida.

La potencia promedio P de una senal real de potencia x(t) esta definita por la Ecuacion (1.20).Tomando el teorema de Parseval sobre senales reales y periodicas se obtiene la relacion

1

T0

∫ T02

−T02

x2(t) dt =∞∑

n=−∞

|xn|2 , (1.23)

en donde el lado izquierdo correspnde a la definicion de la potencia media de una senal periodicay los terminos |xn| son los coeficientes complejos de la serie de Fourier de dicha senal. Nueva-mente, planteando esta igualdad, se tiene que la potencia media de la senal estara dada porsuma de todas las componentes espectrales de ella a lo largo de la frecuencia. En sımbolos

P =∞∑

n=−∞

|xn|2 .

Ası, se define la Densidad Espectral de Potencia (PSD) de la senal periodica x(t) mediante

ρ(f) ,+∞∑

n=−∞

|xn|2 δ(f − nf0) . (1.24)

Notese que ρ(f) es una funcion discreta en frecuencia, real, par y no-negativaPara senales no-periodicas se requiere definir una version truncada de la senal, mediante:

xT (t) ,

x(t) , − T

2< t < T

2

0 , i.o.c.= w(t) Π

(t

T

).

Ahora, usando la Ecuacion (1.20) y el teorema de Parseval dado por la Ecuacion (1.21) setiene que la potencia normalizada promedio esta determinada por:

P = limT→∞

1

T

∫ ∞−∞

x2T (t) dt = lim

T→∞

1

T

∫ ∞−∞|XT (f)|2 df =

∫ ∞−∞

limT→∞

|XT (f)|2

Tdf

Entonces, utilizando el mismo principio explicado para el caso de senales periodicas, se definela PSD de una senal no-periodica de una senal como:

ρ(f) = limT→∞

|XT (f)|2

T, (1.25)

de donde se puede extraer directamente que la potencia promedio de la senal estara determinadapor el calculo de la integral de la PSD a lo largo de todas las frecuencias. Este resultado esde vital importancia para senales aleatorias en donde no se puede calcular la transformada deFourier pero si su PSD mediante la funcion de autocorrelacion como se vera en la siguienteseccion.

15

Page 21: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

Ejemplo 1.5 - PSD senal periodica.Encuentre la potencia promedio normalizada de la senal x(t) = A cos(ω0t) usando el promediotemporal y en base a las series de Fourier.

Sol. Usando la Ecuacion (1.23), se tiene P = A2

T0

∫ T02

−T02

cos2(ω0t) dt = A2

2. Por otra parte, al

usar la definicion de una PSD para senal periodica dada por la Ecuacion (1.24), se obtienepor mediante las series de Fourier que x1 = x−1 = A

2y xn = 0, ∀ n = 0,±2,±3, . . . . Luego

ρ(f) = A2

4[δ(f +f0)+δ(f−f0)], entonces P =

∫∞−∞ ρ(f) = A2

2, que es el mismo valor encontrado

mediante el calculo del valor medio.

Ejemplo 1.6 - PSD, Potencia media y valor RMS.Determine la PSD, la potencia media y el valor RMS de la senal x(t) = A sin(ω0t), mediante eluso de la funcion de autocorrelacion.Sol. La funcion de autocorrelacion estara determinada por R (τ) = A2

2cos(ω0τ), entonces su

PSD estara determinada por ρ(f) = F [R (τ)] = F[A2

2cos(ω0τ)

]= A2

4[δ(f + f0) + δ(f − f0)]. La

potencia media sera P = R (0) = A2

2y el valor RMS xRMS =

√P = A√

2.

PSD de un Proceso Aleatorio

Anteriormente se dijo que un proceso aleatorio X(t) se clasificaba como una senal de potencia,por lo que tendra una PSD caracterıstica ρX(f) que esta descrita por la Ecuacion (1.25). Elproblema con dicha definicion, es que requiere el calculo de transformada de Fourier del procesoaleatorio, cosa que normalmente es imposible pues no se tiene una descripcion en el tiempoque permita el calculo de la integral. Por esta razon se necesita recordar que la PSD y laautocorrelacion se relacionan mediante la transformada de Fourier como lo sentencia el Teoremade Wiener-Khinchin.

Teorema Wiener-Khinchin. Para un proceso aleatorio estacionario X(t), su densidad es-pectral de potencia (PSD) corresponde a la transformada de Fourier de la funcion deautocorrelacion, es decir

ρX(f) = F [RX(τ)] . (1.26)

Entonces, la PSD de una secuencia aleatoria de digitos binarios puede ser obtenida mediantela transformada de fourier de la funcion de autocorrelacion. Debe recordarse que el area bajola curva de la PSD corresponde a la potencia promedio de la senal.

Ejemplo 1.7 - PSD proceso aleatorio estacionario.Sea el siguiente proceso aleatorio X(t) = A cos(ω0t+ θ), con A y ω0 constantes y θ ∼ U [0, 2π].Determine la PSD de dicho proceso.Sol. Anteriormente se obtuvo que la media del proceso es E X = 0 y que la funcion de

16

Page 22: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

(a) Senal original y contaminada con ruido blanco (b) PSD de la senal

Fig. 1.3: Estimacion de la PSD de una senal determinıstica contaminada con ruido blanco.

autocorrelacion para este proceso es R (t1, t2) = 12A2 cos[ω0(t2 − t1)] = 1

2A2 cosω0τ , por lo

que corresponde a un proceso estacionario. Entonces la PSD estara determinada por ρ(f) =A2

4[δ(f − f0) + δ(f + f0)].

Aparte de permitir realizar analisis espectral de los procesos aleatorios, la PSD permite tra-bajar con senales determinısticas contaminadas con ruido aleatorio. Por ejemplo, para una senaldada por x(t) = cos(2π50t) + cos(2π250t) que se contamina con ruido blanco como se muestraen la Fig. 1.3(a), la informacion a priori de las componentes espectrales resulta practicamenteimposible de obtener. Al calcular la funcion de autocorrelacion de la senal y tomar la transfor-mada de Fourier de dicho resultado, se obtiene la estimacion de la PSD de la senal. Como sepuede observar en la Fig. 1.3(b), se logran visualizar claramente las componentes espectrales en50[Hz] y 250[Hz] conforme a la senal original, a pesar de la presencia de ruido aleatorio en lasenal a procesar.

1.6 Conversion Analogo-Digital

Hasta el momento, se ha hablado de conceptos y definiciones sobre senales definidas en tiempoy amplitud continuo, pudiendo esta ultima asumir infinitos valores. El problema con estassenales es que no pueden ser transmitidas en su forma natural mediante un sistema digital,por lo que deben ser muestreadas (llevar las senales de tiempo continuo a tiempo discreto) ycuantizadas (llevar los valores de amplitud a un numero finito). Este proceso se explicara enlas siguientes secciones. Como resultado se tiene una senal en tiempo y amplitud discretos quepuede codificarse como se vera en el siguiente capıtulo.

17

Page 23: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

1.6.1 Muestro de una Senal

Conforme a la experiencia previa, se puede decir que el muestrear una senal, corresponde amultiplicarla por un tren de impulsos discretos con periodo Ts (o frecuencia de muestreo fs =1Ts

). Ası, considerando la funcion impulso unitario, δ(t), la senal x(t) muestreada cada Tsunidades de tiempo, estara dada por

xs(t) =∞∑

n=−∞

x(t)δ(t− nTs) . (1.27)

Considerando que x(t) no depende de n y puede salir de la sumatoria, se aplica la trans-formada de Fourier a ambos lados de la Ecuacion (1.27), para obtener el espectro de la senalmuestrada.

Xs(f) = X(f) ∗ F

[∞∑

n=−∞

δ(t− nTs)

]

= X(f) ∗ 1

Ts

∞∑n=−∞

δ(f − nfs)

=1

Ts

∞∑n=−∞

X(f − nfs) (1.28)

en donde ∗ representa la convolucion en tiempo-discreto, y se utilizo la propiedad de la con-volucion de la senal impulso, que dice: X(f)∗ δ(f −nfs) = X(f −nfs). Este resultado muestraque el espectro de la senal muestreada Xs(f) es una replica de la transformada de Fourier de lasenal original que se repite a una tasa de fs [Hz] y que se atenua en un factor de fs.

En la Fig. 1.4 se pueden observar las etapas en el proceso de muestreo ideal mediante lautilizacion de la funcion impulso unitario. La senal analoga de la Fig. 1.4(a) es una senal debanda limitada ya que se hace nula fuera del intervalo −15 < f < 15, como se puede observar enla Fig. 1.4(b). Esto implica que el ancho de banda de la senal es W = 15[Hz]. Utilizando unafrecuencia de muestreo de fs = 100[Hz] el criterio de Nyquist se satisface de forma completa,por lo que no existira aliasing tal como se puede observar en la Fig. 1.4(f). Esta misma figuraratifica el hecho de que en la senal muestreada el espectro se repite cada fs[Hz] como se demostromatematicamente.

1.6.2 Cuantizacion

Despues del proceso de muestreo, se tiene una senal de tiempo discreto, sin embargo las am-plitudes aun son continuas y puede asumir cualquier valor real dentro de los lımites propios dela senal. Dado que la transmision de numeros reales en numero de base 2 tienen largo infinito,la transmision de esta senal se hace imposible. Por esta razon, posterior al muestreo se realizael proceso de cuantizacion. En este proceso se realiza la discretizacion de la amplitud de lassenales, lo que permite representar la senal de forma valida con valores binarios de largo finito.

La forma mas basica de realizar el proceso de cuantizacion es mediante la subdivision delrango dinamico de la senal muestreada en un numero finito de valores. En terminos coloquiales,

18

Page 24: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

(a) Senal Analoga Original (b) Espectro Senal Analoga

(c) Tren de Impulsos (d) Espectro Tren de Impulsos

(e) Senal Muestreada (f) Espectro Senal Muestreada

Fig. 1.4: Diferentes etapas del muestreo de una senal analoga.

19

Page 25: Apuntes de Comunicaciones Digitales

CAPITULO 1. INTRODUCCION

es como posicionar la senal sobre un cuaderno de lineas. Ası los valores que la senal asume en losdistintos instantes de tiempo, se redondean a un valor maximo o mınimo de dicha subdivision.Mediante esta tecnica se logran resultados aceptables, pero intuitivamente se puede decir quese agregan errores propios al redondeo de valores. Este metodo de cuantizacion ası como otrosmas avanzados se estudiaran con mas detalle a partir de la seccion 3.3.1.

20

Page 26: Apuntes de Comunicaciones Digitales

Capıtulo 2

Teorıa de la Informacion

2.1 Introduccion

La Teorıa de la Informacion busca contestar dos preguntas fundamentales en la teorıa de lascomunicaciones: Cual es la maxima compresion de datos (Respuesta: La entropıa, H) y cual esla maxima tasa de transmision de la comunicacion (Respuesta: La capacidad del canal, C). Poresta misma razon, la teorıa de la informacion se considera como una sub-materia de la teorıa delas comunicaciones, sin embargo resulta ser un area muchısimo mas grande pues tiene mucho queaportar en otras areas como Fısica Estadıstica (Termodinamica), Ciencias de la Computacion(Complejidad de Kolmogorov), Inferencia Estadıstica, Probabilidad y Estadıstica entre otrasmaterias.

2.2 Modelo de las Fuentes de Informacion

Aca, se estudiaran solamente modelos simples para las fuentes de informacion ya que fuentescomplejas involucran matematicas avanzadas que escapan del fin del curso. Sin embargo, estosmodelos simples igualmente permiten definir en forma precisa una medida de la informacion yde los lımites en la compresion y transmision de la informacion.

El modelo mas simple para una fuente de informacion es la fuente discreta sin memoria, Dis-crete Memoryless Source (DMS), que es un proceso aleatorio en tiempo discreto y de amplituddiscreta en el cual todos los Xi’s son generados en forma independiente y con la misma dis-tribucion. Por lo tanto, un DMS genera una secuencia de variables aleatorias i.i.d. (independentand identically distributed), que toman valores en un set discreto de posibilidades.

Permıtase definir dicho set discreto de posibilidades que tomara la variable aleatoria medianteA = a1, a2, . . . , aM, y la funcion de probabilidades correspondientes denotadas por pi =P (X = ai), para i = 1, 2, . . . ,M . Una descripcion completa de una DMS esta determinada porel set A , llamado alfabeto, y el set de probabilidades piMi=1.

2.2.1 Concepto de Informacion

La informacion –de forma general– corresponde a un conocimiento especıfico o dato de interes,que agrupado con un conjunto de datos extras constituye un mensaje sobre un determinado

21

Page 27: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

ente o fenomeno. En otras palabras, se puede decir que el concepto de mensaje, viene a sercomo una materializacion de la informacion.

La informacion es transferida desde una fuente a un destinatario, solo si este ultimo no laconocıa previamente. Por ejemplo, considere el escenario en que un grupo de gente mira porla ventana. Esto involucra que todos saben (tienen la informacion) que el dıa esta soleado. Sialguien dice “El dıa esta soleado” no es informacion, pues no aporta ningun dato nuevo a loque todos conocen. Por otro lado si alguien dice “En la noche llovera” para muchos si serainformacion pues no necesariamente todos sabran dicho dato.

Pensando en senales de voltaje, una baterıa de 1.5 volts no tiene mucha informacion queaportar, pues una vez sabido su voltaje mediante un voltımetro, este seguira constante pormuchısimo tiempo lo que no aporta ningun dato nuevo → La informacion esta relacionada concambios.

Por otro lado, una senal sinusoidal de voltaje varıa en el tiempo, sin embargo una vez que estase ha caracterizado midiendo su amplitud, frecuencia y fase, no existe ninguna informacion nuevaque esta senal pueda aportar → La informacion esta relacionada con cambios impredecibles.

2.2.2 Medida de la Informacion

La cantidad de informacion sobre un evento se relaciona estrechamente con la probabilidad desu ocurrencia. Los mensajes que contienen noticias de gran probabilidad de ocurrencia, es decirque indican muy poca incertidumbre en el resultado, llevan relativamente poca informacion.Por otro lado, aquellos mensajes que contienen noticias con baja probabilidad de ocurrenciaconducen grandes cantidades de informacion. Ası mismo, un evento totalmente cierto (es decircon probabilidad unitaria) lleva cero informacion; en cambio un evento improbable (probabilidadcasi nula), su ocurrencia lleva una cantidad infinita de informacion. Sobre esta base, la medidade informacion asociada a un evento A que ocurre con una probabilidad PA se define como:

IA = log1

PA= − logPA (2.1)

La Ecuacion (2.1) se conoce como self-information y fue derivada por Claude E. Shannonen 1948. Es importante tener en cuenta, que la definicion esta hecha con logaritmo en base 2,por lo tanto la unidad de medida de IA es bits. Si se utiliza logaritmos naturales (base e), launidad sera nat y para logaritmo en base 10, se dice que se mide en hartley.

Ejemplo 2.1 - Autoinformacion.Considerando el experimento de lanzar una moneda, la probabilidad de tener “sello” es 0.5.Una vez que esto haya sucedido, se tiene Isello = − log2(0.5) = 1 bit de informacion.

Ejemplo 2.2 - Autoinformacion.Considerando el experimento de lanzar un dado, la probabilidad de que salga cualquier numeroes 1/6. Suponiendo que salio un 4, la cantidad de informacion es: I4 = log2(6) = 2.5850 bits deinformacion.

22

Page 28: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Ejemplo 2.3 - Autoinformacion.Los sımbolos A, B, C y D ocurren con probabilidades 1/2, 1/4, 1/8 y 1/8 respectivamente.Calcule la informacion en el mensaje de tres sımbolos X = BDA suponiendo que estos sonestadısticamente independientes.Sol. Como los eventos son estadısticamente independientes, la medida de informacion (porser logarıtmica) resulta aditiva, luego: IX = − log2(PX) = − log2(PBPDPA) = − log2(PB) −log2(PD)− log2(PA) = log2 4 + log2 8 + log2 2 = 2 + 3 + 1 = 6 bits de informacion.

2.2.3 Entropıa

Lo anteriormente discutido, define la medida de la informacion para el caso en que todos losmensajes son igualmente probables, lo que resulta ser solo un caso particular. A modo degeneralizacion se define una “informacion promedio” de cada mensaje, llamada Entropıa, H.

La entropıa corresponde a una medida de la incertidumbre de una variable aleatoria. DefınaseX como una variable aleatoria discreta con alfabeto A y funcion de probabilidad p(x) = P (X =x). Ası, se define la Entropıa H(X) de la variable aleatoria discreta X como:

H(X) = −∑x∈A

p(x) log p(x) (2.2)

en donde el logaritmo se utiliza en base 2 a menos que se especifique lo contrario, y se asumepor convencion que 0 log 0 = 0, lo que se puede justificar por que la relacion x log x→ 0 cuandox→ 0.

La entropıa de X tambien puede ser interpretada como el valor esperado de − log p(X) loque equivale a la esperanza de la self-information del mensaje, luego

H(X) = E IX = E

log

1

p(X)

que esta relacionada con la definicion de entropia en termodinamica.

Ejemplo 2.4 - Entropıa.Considere la variable aleatoria X ∈ 0, 1. Calcule la entropıa de X, considerando que la fuentede informacion es sin-memoria.Sol. Considerando que la probabilidad de que X = 1 es p, la probabilidad de que X = 0 sera1− p. Entonces su entropıa sera H(X) = −p log p− (1− p) log(1− p) , H(p). Esta funcion esconocida como la Funcion de Entropıa Binaria y se muestra en la Fig. 2.1.

En particular H(p) = 1 bit cuando p = 0.5. Si la funcion H(p) se grafica con respecto ap se puede notar una de las propiedades basicas de la entropıa: es una funcion concava de ladistribucion y nula para p = 0 o 1. Ademas el maximo ocurre cuando p = 0.5 lo que es claropues corresponde al punto de maxima incertidumbre. Esto se puede corroborar observando laFig. 2.1.

23

Page 29: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Fig. 2.1: La funcion de entropıa binaria H(p)

Ejemplo 2.5 - Entropıa de DMS.Una fuente con ancho de banda de 4kHz se muestrea en forma optima. Asumiendo que lasecuencia resultante se puede modelar como una fuente DMS con alfabeto A = −2,−1, 0, 1, 2y con probabilidades correspondientes dadas por

12, 1

4, 1

8, 1

16, 1

16

, determine la tasa de la fuente

en bits por segundo.Sol. La entropıa estara dada por H(X) = 15

8bits por muestra. Dado que el muestreo optimo se

logra con la frecuencia de Nyquist, entonces la frecuencia de muestreo es fs = 2 ·4k = 8[kHz], oen otras palabras, se tomaran 8000 muestras por segundo. Ası la fuente producira informaciona una tasa de 800015

8= 15 · 103 bits por segundo.

Ejemplo 2.6 - Entropıa de DMS Equiprobable.Una fuente de informacion discreta sin memoria tiene un alfabeto de tamano N y las salidasson equiprobables. Encuentre la entropia de esta fuente.Sol. Como los eventos son equiprobables, todos tienen una probabilidad de 1

N, luego H(x) =

−∑N

i=11N

log 1N

= logN .

2.2.4 Entropıa Conjunta y Condicional

Cuando se trabaja con 2 o mas variables aleatorias, se introduce el concepto de entropia condi-cional y conjunta de la misma forma en que se habla de probabilidades condicionales y conjuntas.Este concepto es principalmente importante cuando se trabaja con fuentes con memoria.

24

Page 30: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Ası, se define la Entropia Conjunta de dos variables aleatorias discretas (X, Y ) como:

H(X, Y ) = −∑x,y

p(x, y) log p(x, y) (2.3)

lo que tambien puede expresarse mediante H(X, Y ) = E log p(X, Y ).Para el caso de m variables aleatorias X = (X1, X2, . . . , Xm), se tiene:

H(X) = −∑

x1,x2,...,xm

p(x1, x2, . . . , xm) log p(x1, x2, . . . , xm)

por lo que se puede decir que la entropia conjunta es simplemente la entropia de una variablealeatoria vectorial.

Ejemplo 2.7 - Entropia Conjunta.Dos variables aleatorias binarias X e Y estan distribuıdas de acuerdo a una PMF conjunta dadapor P (X = 0, Y = 0) = 1

4, P (X = 0, Y = 1) = 1

4y P (X = 1, Y = 1) = 1

2. Determine los valores

de H(X), H(Y ) y H(X, Y ).Sol. Dada la distribucion, se tiene que P (X = 1, Y = 0) = 0. Ası P (X = 0) = P (X = 0, Y =0) + P (X = 0, Y = 1) = 1

2, entonces se tiene que P (X = 1) = 1

2, luego H(X) = − log 1

2= 1.

Por otra parte, P (Y = 0) = 14, lo que implica que P (Y = 1) = 3

4, luego H(Y ) = 0.8113. Ahora

bien, H(X, Y ) = −14

log 14− 1

2log 1

2− 1

4log 1

4= 3

2.

La Entropia Condicional de la variable aleatoria X, dada la variable aleatoria Y , expre-sada como H(X|Y ) puede ser definida como

H(X|Y ) = −∑x,y

p(x, y) log p(x|y) (2.4)

En general, se tiene que

H(Xm|X1, X2, . . . , Xm−1) = −∑

x1,x2,...,xm

p(x1, x2, . . . , xm) log p(xn|x1, x2, . . . , xm−1)

El Teorema de la Regla de la Cadena, permite comprobar que

H(X, Y ) = H(X) +H(Y |X) (2.5)

lo que a su vez, como corolario, dice que esto se cumple en forma inversa, vale decir

H(X, Y ) = H(Y ) +H(X|Y ) .

Para comprobar esto, se puede considerar la definicion de probabilidad condicional

p(X, Y ) = p(X)p(Y |X)

log p(X, Y ) = log[p(X)p(Y |X)]

= log p(X) + log p(Y |X)

ahora, tomando la esperanza en ambos lados de la ecuacion, se obtiene el resultado esperado.

25

Page 31: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Ejemplo 2.8 - Entropıa Condicional.Para el Ejemplo 2.7, calcule H(X|Y ) y H(Y |X).Sol. Se tiene que H(Y |X) = H(X, Y )−H(X) = 1

2, y H(X|Y ) = 1.5− 0.8113 = 0.6887.

2.2.5 Informacion Mutua

Para variables aleatorias discretas, H(X|Y ) denota la entropıa (o incertidumbre) de la variablealeatoria X, luego de que la variable aleatoria Y es conocida. Ası, dado que la entropıa de lavariable X es H(X), la cantidad H(X)−H(X|Y ) representa la cantidad de incertidumbre queha sido removida al revelar la variable aleatoria Y . Esta cantidad juega un rol importante tantoen la codificaciones de canales como de fuentes y es llamada Informacion Mutua entre las 2variables aleatorias.

Entonces, la informacion mutua entre dos variables aleatorias discretas X e Y , es denotadapor I(X;Y ) y esta definida por

I(X;Y ) = H(X)−H(X|Y ) (2.6)

por simetrıa, tambien se tiene que I(X;Y ) = H(Y )−H(Y |X). Ası se puede considerar que Xdice tanto de Y como Y lo dice de X.

Considerando ahora que H(X, Y ) = H(X) + H(Y |X), entonces la informacion mutuatambien puede ser calculada por:

I(X;Y ) = H(X) +H(Y )−H(X, Y ) (2.7)

Finalmente, se puede notar que

I(X;X) = H(X)−H(X|X) = H(X)

2.3 Teorema de Codificacion de la Fuente

La entropıa de una fuente de informacion, da una cota acerca de la tasa a la cual la fuentepuede ser comprimida para una reconstruccion exitosa. Esto significa que a tasas superioresa la entropıa es posible disenar un codigo con una probabilidad de error tan pequena como sequiera, por otro lado, a tasas inferiores a la entropıa dicho codigo no existe.

Esto se justifica en el Teorema de Codificacion de la Fuente, propuesto por Shannon en 1948y que dice:

Teorema de Codificacion de la Fuente. Una fuente de informacion con entropıa (o tasa deentropıa) H, puede ser codificada con una probabilidad de error arbitrariamente pequenaa cualquier tasa R [bits/simbolo], siempre que R > H. Consecuentemente, si R < H,el error sera muy lejano a cero, independiente de la complejidad utilizada en la codifi-cacion/decodificacion.

A pesar de la importancia de este resultado, este no da ningun algoritmo para disenarcodigos que se aproximen a esta condicion, por lo que se estudiaran algunas alternativas queimplementan esta idea.

26

Page 32: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

2.3.1 Codigo Huffman

El objetivo del codigo Huffman es asignar una secuencia de bits a cada una de las posiblessalidas de una fuente discreta. En forma intuitiva, se basa en la probabilidad de ocurrencia dedichas salidas para realizar la asignacion de cada palabra, dando a las salidas mas probables laspalabras mas cortas (con menos bits) y a las menos frecuentes las palabras mas largas. Estecodigo busca ser de decodificacion unica, instantaneo y de menor largo medio de palabra, queesta determinado por

R =∑x

p(x)l(x) , (2.8)

en donde l(x) es el largo del codigo de palabra asignado a la salida x. Se puede demostrar queR satisface la relacion:

H(X) ≤ R < H(X) + 1 .

Ademas, como se dijo que la entropıa representa la cota mınima de compresion de datos, laeficiencia del codigo Huffman esta dado por:

η =H(X)

R.

Algoritmo del Codigo Huffman

El algoritmo se puede describir mediante los siguientes pasos:

1. Ordenar las salidas de la fuente en orden de probabilidades decrecientes

2. Agrupar los menos probables y generar una nueva salida cuya probabilidad es la suma delas probabilidades correspondientes a las salidas agrupadas

3. Si quedan 2 salidas disponibles, ir al paso 4; sino, volver al paso 1.

4. Asignar 0 y 1 como codigos de palabra a las 2 salidas. Por acuerdo, se asignara un 0 a lasalida menos probable de las 2 disponibles.

5. Recorrer el arbol en forma inversa, asignando 0 o 1 a cada rama. Repetir hasta llegar alas salidas originales.

Para clarificar el algoritmo, se plantea el siguiente ejemplo.

Ejemplo 2.9 - Codigo Huffman.Considere una fuente de 5 sımbolos a1, a2, a3, a4, a5 con probabilidades 1

2, 1

4, 1

8, 1

16, 1

16 respec-

tivamente. Encuentre el codigo Huffman para dicha fuente. Calcule ademas el largo promedio,y la eficiencia del codigo encontrado.Sol. Las probabilidades se mantienen en orden, pues fueron asignadas en forma decreciente,luego:

que corresponde al codigo originalmente dado. El largo medio sera R = 0.5 · 1 + 0.25 · 2 +0.125 · 3 + 0.0625 · 4 + 0.0625 · 4 = 1.8750. La entropıa de la fuente esta dada por H(X) =

27

Page 33: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

a1 (12) → a1 (1

2) → a1 (1

2) → a1 (1

2) 0 0

a2 (14) → a2 (1

4) → a2 (1

4) 0e a2345 (1

2) 1 10

a3 (18) → a3 (1

8) 0e a345 (1

4) 1c 110

a4 ( 116

) 0e a45 (18) 1c 1110

a5 ( 116

) 1c 1111

−0.5 log 0.5 − 0.25 log 0.25 − 0.125 log 0.125 − 0.0625 log 0.0625 − 0.0625 log 0.0625 = 1.875, asıla eficiencia sera η = 100%.

A pesar de que el codigo Huffman es optimo en el sentido de que entrega palabras con unlargo medio mınimo, presenta dos grandes problemas en su implementacion:

1. El diseno del codigo depende fuertemente de las probabilidades (estadısticas), las que sedebe saber con anterioridad. Esto implica que el codigo Huffman se debe realizar en dospasos: primero se estiman las estadısticas de la fuente de informacion y luego se realiza lacodificacion en si.

2. El otro problema que presenta el codigo Huffman es que se disena sobre bloques de lafuente de largo uno, solo emplea variaciones en la frecuencia de las salidas de la fuentey no la memoria. Si se quisiera utilizar tambien la memoria de la fuente, se requerirıautilizar bloques de largo 2 o mas, lo que incrementa en forma exponencial la complejidaddel algoritmo.

2.3.2 Codigo Lempel-Ziv

El algoritmo de Lempel-Ziv pertenece a la clase de algoritmos de codificacion de fuente uni-versales, es decir, algoritmos que son independientes de las estadısticas de la fuente. Para unaristra de bits, el algoritmo se procede como sigue

1. Se identifican frases del mınimo largo que no hayan aparecido anteriormente en la ristra.

2. Mientras la nueva salida de la fuente despues de la ultima frase coincida con una de lasexistentes, no se introduce una nueva frase y se considera una nueva letra de la fuente.

3. Apenas la nueva salida sea diferente de las frases previas, se reconoce como una nuevafrase y se codifica. En terminos intuitivos se puede notar entonces que la nueva frasecorresponde a una frase previa mas algun bit de innovacion.

4. La codificacion se realiza concatenando la posicion de la frase previamente encontrada conel bit de innovacion.

Ejemplo 2.10 - Codigo Lempel-Ziv.Codifique mediante Lempel-Ziv la ristra dada por

01000011000010100000101000001100000101000010 .

28

Page 34: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Sol. En base a las reglas anteriores, se debe realizar la separacion en frases diferentes, luego

0|1|00|001|10|000|101|0000|01|010|00001|100|0001|0100|0010 ,

que involucra tener 15 frases, con lo que, para representar cada salida de la fuente de informacion,se requieren 4 bits por frase mas el bit de innovacion. Entonces, se genera la tabla de asignacionde posiciones para determinar la codificacion que se muestra a continuacion:

Ubicacion Contenido Codigo1 0001 0 0000 02 0010 1 0000 13 0011 00 0001 04 0100 001 0011 15 0101 10 0010 06 0110 000 0011 07 0111 101 0101 18 1000 0000 0110 09 1001 01 0001 110 1010 010 1001 011 1011 00001 1000 112 1100 100 0101 013 1101 0001 0110 114 1110 0100 1010 015 1111 0010 0100 0

Por lo que el problema se considera resuelto.

La representacion obtenida en el ejemplo, dificilmente se pueden considerar como compresionde datos ya que 44 bits fueron mapeados en una secuencia de 75 bits. Sin embargo al momentode trabajar con ristras de bits mucho mas grandes, la compresion se torna mas evidente.

Un problema que presenta la codificacion LZ es con respecto a que numero de frases se debenelegir, ya que cualquier numero fijo de frases eventualmente sera insuficiente para una fuentecontinua de bits, produciendose overflow. Una forma de solucionarlo es que el par codificador-decodificador debe eliminar de sus diccionarios las frases obsoletas y substituirlos por nuevoselementos.

La decodificacion, se realiza simplemente considerando que en la ubicacion 0 siempre iranlos dıgitos binarios 0 o 1 y el bit de innovacion determinara a cual corresponde. Posteriormentese realiza la recuperacion traduciendo la mezcla ubicacion + bit de innovacion para armar laristra original de bits.

El algoritmo LZ es ampliamente utilizado en la practica para comprimir archivos. Loscomandos compress y uncompress del sistema operativo UNIX, ası como tambien programasde compresion (zip, gzip, etc) son implementaciones de diferentes versiones de este algoritmo.

29

Page 35: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

2.3.3 Codigo ASCII

ASCII son las siglas de American Standar Code for Information Interchange. Su uso primordiales facilitar el intercambio de informacion entre sistemas de procesamiento de datos y equiposasociados y dentro de sistemas de comunicacion de datos.

En un principio cada caracter se codificaba mediante 7 dıgitos binarios y fue creado para eljuego de caracteres ingleses mas corrientes, por lo que no contemplaba ni caracteres especialesni caracteres especıficos de otras lenguas. Esto hizo que posteriormente se extendiera a 8 dıgitosbinarios. El codigo ASCII se resume en la Tabla 2.1.

Tabla 2.1: Codigo ASCII0 1 2 3 4 5 6 7

0 NUL DLE SPC 0 @ P ‘ p1 SOH DC1 ! 1 A Q a q2 STX DC2 ” 2 B R b r3 ETX DC3 # 3 C S c s4 EOT DC4 $ 4 D T d t5 ENQ NAK % 5 E U e u6 ACK SYN & 6 F V f v7 BEL ETB ’ 7 G W g w8 BS CAN ( 8 H X h x9 HT EM ) 9 I Y i yA LF SUB * : J Z j zB VT ESC + ; K [ k C FF FS , < L \ l |D CR GS - = M ] m E SO RS . > N ∧ n ∼F SI US / ? O o DEL

30

Page 36: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Tabla 2.2: Codigo ASCII (continuacion)NUL Null, or all zeros DC1 Device Control 1SOH Start of heading DC2 Device Control 2STX Start of text DC3 Device Control 3ETX End of text DC4 Device Control 4EOT End of transmision NAK Negative acknowledgeENQ Enquiry SYN Synchronous idleACK Acknowledge ETB End of trasmision blockBEL Bell o alarma CAN CancelBS Backspace EM End of mediumHT Horizontal tabulation SUB SubstituteLF Line feed ESC EscapeVT Vertical tabulation FS File separatorFF Form feed GS Group separatorCR Carriage Return RS Record separatorSO Shift out US Unit separatorSI Shift in SP SpaceDLE Data link escape DEL Delete

Ejemplo 2.11 - Codigo ASCII.Considere que se quiere enviar la palabra “HOLA!” usando el codigo ASCII de 8 bits. Se pideencontrar la representacion en dıgitos 32-arios y sus respectivas formas de onda.Sol. Conforme a la Tabla 2.1, se tiene que H:84x0, O:F4x0, L:C4x0, A:14x0 y !:12x0, entonces en

binario, el mensaje sera

H︷ ︸︸ ︷10000100

O︷ ︸︸ ︷11110100

L︷ ︸︸ ︷11000100

A︷ ︸︸ ︷00010100

!︷ ︸︸ ︷00010010 . Ası, si se considera que

se quiere utilizar dıgitos 32-arios, entonces la secuencia de dıgitos sera 16,19,26,12,8,5,9,18.

2.4 Representacion de Canales

En esta seccion, se estudiara el canal de comunicacion que es uno de las partes mas importantesde las comunicaciones pues resulta ser el factor limitante a la hora de lograr una buena tasa detransmision.

Como se dijo anteriormente, un canal de comunicacion corresponde a cualquier medio sobreel cual puede ser transmitida informacion, o en el que informacion puede ser almacenada. Ası,ejemplos de canales de comunicaciones serıan: cables coaxiales, propagacion por la ionosfera,espacio libre, fibra optica, discos magneticos u opticos, etc. Lo que resulta comun en estosejemplos, es que ellos reciben senales en sus entradas y entregan senales en sus salidas en untiempo posterior (almacenamiento) o en otra ubicacion (transmision). Por lo mismo, los canalesde comunicacion son modelados mediante la relacion entrada-salida que tengan; en este sentido,un canal de comunicacion puede ser considerado como un sistema.

Existen variados factores que producen que la salida de un canal de comunicacion sea difer-

31

Page 37: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

ente a su entrada, tales como atenuacion, nolinealidades, limitaciones de ancho de banda, ruido,etc. Todo esto contribuye a una relacion entrada-salida bastante compleja, que generalmentetiene que ser considerada como una relacion estocastica.

Al considerar el canal como un sistema con entrada X y salida Y , las probabilidades condi-cionales p(Y |X) y p(X|Y ) son conocidas como Probabilidad de Transicion y Probabilidadde Union, respectivamente. A su vez, la entropıa de entrada H(X) corresponde a la incer-tidumbre promedio de la fuente de informacion y la entropıa de la salida H(Y ) corresponde ala incertidumbre promedio de la recepcion de un sımbolo. Para el caso de las entropıas condi-cionales, se tiene queH(Y |X) corresponde a la incertidumbre promedio respecto de que el sımboloque se recibe, dado que se ha transmitido X. La entropıa H(X|Y ) serıa la Entropıa de Equivo-cacion, que corresponde a la incertidumbre promedio de que sımbolo sera transmitido despuesde haber recibido un sımbolo X. La entropıa conjunta H(X, Y ) es la incertidumbre promediodel sistema de comunicaciones como un todo.

Considere un canal sin memoria, lo que implica que la salida depende de la entrada en esemomento y no de las previas a el. Este tipo de canales, estan definidos por un conjunto deprobabilidades condicionadas que relacionan la probabilidad de cada estado a la salida, con laprobabilidad de la entrada. Suponga un canal con dos entradas x1 y x2, y con tres salidas y1,y2 e y3, como lo muestra la Fig 2.2.

Fig. 2.2: Canal de comunicaciones de 2 entradas y 3 salidas modelado como un sistema.

Las rutas entrada-salida se indican como una probabilidad condicional Pij = P (yj|xi), repre-sentando la probabilidad de obtener a la salida yj, dado que a la entrada xi. Esta probabilidadrecibe el nombre de Probabilidad de Transicion del Canal.

Fig. 2.3: Rutas entrada-salida para el canal de comunicaciones de 2 entradas y 3 salidas.

A menudo, se prefiere especificar al canal por su Matriz de Probabilidades de Tran-sicion, denotada por P(Y|X) = [P (yj|xi)], que para el caso particular que se esta evaluandoestara dada por:

P(Y|X) =

[P (y1|x1) P (y2|x1) P (y3|x1)P (y1|x2) P (y2|x2) P (y3|x2)

].

32

Page 38: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Por otra parte, cada una de las entradas debe siempre conducir a una salida, por lo que lasuma de cada fila de la matriz debe ser igual a 1. En sımbolos,

P (y1|x1) + P (y2|x1) + P (y3|x1) = P (y1|x2) + P (y2|x2) + P (y3|x2) = 1 .

La Matriz del canal es util para encontrar probabilidades de salida de acuerdo a las probabil-idades de entrada. Considere la matriz fila de n entradas dada por P(X) = [P (x1) · · · P (xn)].Para una matriz de transicion dada por P(Y|X), la matriz de m salidas estara dada por

P(Y) = P(X) P(Y|X)

Resulta interesante mencionar que si la matriz P(X) es escrita en forma diagonal, el productodado por diag[P(X)]P(Y|X) define la Matriz de Union de Probabilidades y es denotadapor P(X,Y). En palabras simples, el termino P (xi, yj) representa la probabilidad de union detransmitir xi y recibir yj. Matematicamente la matriz de union esta dada por:

P(X,Y) =

P (x1) 0 · · · 0

0 P (x2) · · · 0...

.... . .

...0 0 0 P (xn)

P (y1|x1) P (y2|x1) · · · P (ym|x1)P (y1|x2) P (y2|x2) · · · P (ym|x2)

......

. . ....

P (y1|xn) P (y2|xn) · · · P (ym|xn)

.

Ejemplo 2.12 - Representacion de Canales.Considere un canal binario de dos entradas y dos salidas, en donde la fuente es equiprobable yla matriz de transicion esta uniformemente distribuıda al transmitir sin error. Se pide encontrarla matriz de transicion, la matriz de salida, la matriz de union y la probabilidad de error.Sol. Dada la equiprobabilidad de la fuente, la matriz de entrada esta dada por P(X) =[0.5 0.5]. Considerando que P (1|0) = P (0|1) = ε, la matriz de transicion estara dada por

P(Y|X) =

[1− ε εε 1− ε

]. Ası, la matriz de salida sera P(Y) = [0.5 0.5]. La matriz de union

sera P(X,Y) =

[0.5 00 0.5

]P(Y|X) = 0.5 P(Y|X). La probabilidad de transmision con error

estara dada por P (E) = P (0r, 1t) + P (1r, 0t) = P (1)P (0|1) + P (0)P (1|0) = 0.5ε+ 0.5ε = ε.

2.4.1 Canales con Ruido Aditivo Gaussiano

Cuando se habla de canales de comunicacion, se puede hacer referencia a cualquiera de lasmuchas formas en que se puede realizar una transmision de datos tanto digitales como analogos.Por ejemplo se habla de cablados, fibras opticas, canales inalambricos por ondas electromagneticaso incluso canales subacuaticos por ondas acusticas.

Resulta evidente entonces, que los canales reales agregan siempre componentes de ruido queno dependen de los datos que se esten transmitiendo. La principal componente que se da entodo canal es el ruido aditivo, que tiene caracter aleatorio en el tiempo.

Entonces, considere que la senal transmitida se representa por s(t) y que se contamina por unproceso aleatorio de ruido aditivo n(t). Si este ruido es introducido por los elementos presentes,

33

Page 39: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

entonces se habla de Ruido Termico. El ruido termico esta determinado por el movimientoaleatorio de los portadores dentro de cualquier elemento electronico en general producido porla influencia de agentes externos. En terminos mas tecnicos, el ruido termico recibe el nombrede rudo Johnson. El voltaje aleatorio producido a traves de los terminales en circuito abiertodel dispositivo, tiene una distribucion Gaussiana con media nula.

Entonces, el modelo matematico que describe al canal de comunicacion con ruido aditivogaussiano esta determinado por

r(t) = αs(t) + n(t) , (2.9)

en donde α es la atenuacion del canal y r(t) es la senal recibida a la salida del canal.

Ejemplo 2.13 - Canal Gaussiano.Considerando que se envia una senal s(t) con funcion de autocorrelacion dada por Rs(τ) =2 exp(−|τ |) a traves de un canal Gaussiano, se pide encontrar la potencia de la senal recibida.Sol. Se sabe con anterioridad que la funcion de autocorrelacion de un proceso AWGN esRn(τ) = σ2δ(τ), siendo δ(τ) la funcion impulso unitario. Entonces, la funcion de autocorrelacionde la senal recibida, r(t) = s(t) + n(t), esta determinada por:

Rr(τ) = E r(t)r(t+ τ)= E [s(t) + n(t)][s(t+ τ) + n(t+ τ)]= E s(t)s(t+ τ)+ E s(t)n(t+ τ)+ E n(t)s(t+ τ)+ E n(t)n(t+ τ)= Rs(τ) + Rn(τ)

= 2e−|τ | + σ2δ(τ) .

Ası, la potencia de la senal recibida sera Rr(0) = 2 + σ2, en donde σ2 es la varianza del ruidoGaussiano.

2.4.2 Canales con Ruido y Filtro

Por otra parte, al trabajar con lıneas telefonicas se debe incluir el uso de un filtro lineal para noexceder las limitaciones de ancho de banda, por lo que al ruido se suma la presencia de dichofiltro.

Considerese que el filtro tiene una respuesta a entrada impulso dada por c(t), entonces elmodelo matematico que describe la salida del canal es

r(t) = s(t) ∗ c(t) + n(t) , (2.10)

en donde ∗ representa la convolucion de senales.En general, la respuesta impulso del filtro no es invariante en el tiempo por lo que se debe

incluir una variable de edad, τ . Ası, se tiene que la respuesta es c(t, τ). Por ejemplo, un buenmodelo para multitrayectorias (ionosfera f < 30MHz, canales de radio celulares en moviles,etc) es de la forma

c(t, τ) =L∑i=1

ai(t) δ(t− τi) ,

34

Page 40: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

en donde ai(t) son las posibles atenuaciones variantes en el tiempo, y τi corresponden a losretardos de cada una de dichas trayectorias. Por lo tanto, para este caso particular, el modelomatematico a utilizar esta determinado por

r(t) =L∑i=1

ai(t) s(t− τi) + n(t) .

2.5 Capacidad del Canal

Ya se ha discutido que H(X) define el lımite fundamental de la tasa a la que una fuente discretapuede ser codificada sin errores en su reconstruccion, y tambien se comento en un principio deque el canal posee su propio lımite fundamental para la transmision de informacion a traves deel.

Evidentemente, el objetivo principal cuando se transmite informacion sobre cualquier canalde comunicacion es la confianza, la que puede ser medida por la probabilidad de una recepcioncorrecta en el receptor. Un resultado muy importante de la teorıa de la informacion, es quelas comunicaciones confiables –Se entiende por comunicacion confiable como aquella en quela transmision se logra con una probabilidad de error inferior a un valor pre-establecido– sonposibles sobre canales ruidosos, mientras la tasa de transmision sea menor que cierto valor,llamado Capacidad del Canal. Este importante resultado, fue dado a conocer inicialmentepor Shannon (1948) y es conocido como el Noisy Channel Coding Theorem . Este teoremaenuncia que la limitacion basica que el ruido provoca en un canal de comunicacion no es en laconfiabilidad de la comunicacion, sino en la velocidad de dicha comunicacion.

Se definio anteriormente un canal discreto como un sistema con alfabeto de entrada X,alfabeto de salida Y , y matriz de probabilidades de transicion P(Y|X), que expresa la proba-bilidad de observar un sımbolo y a la salida, dado que se envio un sımbolo x. Un canal se dicesin-memoria si la distribucion de probabilidades de la salida depende solo de la entrada en esetiempo y es condicionalmente independiente de las entradas o salidas anteriores.

Ası, se define la Capacidad del Canal de informacion de un canal discreto y sin memoria(DMC) mediante la relacion:

C = maxp(x)

I(X;Y ) (2.11)

en donde el maximo es tomado sobre todas las posibles distribuciones de la entrada p(x). Sedebe entender por esta definicion que corresponde al maximo valor de la informacion mutua, quees la informacion promedio maxima por sımbolo que puede ser transmitido a traves del canal.Notese entonces, que si la tasa de transmision, R, es menor que la capacidad del canal, C,entonces la comunicacion confiable a una tasa R es posible; por otro lado, si R > C, entoncesuna comunicacion confiable a una tasa R es imposible. Tanto la tasa como la capacidad semiden en bits por transmision, o bits por uso del canal.

La maximizacion que se debe hacer, es con respecto a las probabilidades de la fuente, puestoque las probabilidades de transicion son fijadas por el canal. Sin embargo, la capacidad de canales una funcion solamente de las probabilidades de transicion del canal, puesto que el proceso dela maximizacion elimina la dependencia de sobre las probabilidades de la fuente.

35

Page 41: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

Ejemplo 2.14 - Capacidad del Canal Binario.Encuentre la capacidad del canal para un canal binario simetrico, en donde la probabilidad derecepcion erronea es p y la probabilidad de que se envie un cero es α.Sol. Para calcular la capacidad del canal, se maximiza I(X;Y ) = H(Y )−H(Y |X). La entropıacondicional esta determinada por H(Y |X) = −

∑i

∑j p(xi, yj) log p(yj|xi) = −α(1− p) log(1−

p)−(1−α)p log p−αp log p−(1−α)(1−p) log(1−p) = H(p), considerando la definicion de H(p)dada en el Ejemplo 2.4. Ası I(X;Y ) = H(Y ) − H(p). Entonces, la informacion mutua seramaxima cuando la entropıa de Y sea maxima, caso que se da para una distribucion uniforme delos sımbolos. En pocas palabras, H(Y ) ≤ 1, por lo que I(X;Y ) ≤ 1−H(p), y C = 1−H(p).

Considerando este ultimo ejemplo, los resultados obtenidos implican que si p = 0 o p = 1 lasalida del canal esta completamente determinado por la entrada, y la capacidad sera de 1 bitpor sımbolo. Por otro lado, si p = 0.5, un sımbolo en la entrada nos lleva a cualquier salida conigual probabilidad y la capacidad del canal es nula. Ademas, la probabilidad del error estaradeterminada por

PE =∑i

p(xi, e) =∑i

p(xi)p(e|xi) = [p(x1) + p(x2)]p = p

lo que establece que la probabilidad de error no condicional PE, es igual a la probabilidad deerror condicional p(yj|xi), ∀i 6= j.

Ejemplo 2.15 - Capacidad del Canal DMC sin ruido.Encuentre la Capacidad del Canal para un DMC sin ruido.Sol. Para un canal sin memoria y sin ruido, las probabilidades de error son nulas, lo que equivalea decir que la conexion es uno-a-uno entre las entradas y salidas. Luego p(xi|yj) = 0 ∀i 6= j y por

lo mismo p(xi|yj) = 1 ∀i = j. Considerando que H(X|Y ) = −∑N

i=1

∑Nj=1 p(xi, yj) log p(xi|yj),

se tiene que H(X|Y ) = 0. Ası, la informacion mutua sera I(X;Y ) = H(X)−H(X|Y ) = H(X).Para maximizar la entropıa de la fuente, anteriormente se dijo que todos los sımbolos de la fuentedebıan ser equiprobables, entonces C = Imax(X;Y ) = Hmax(X) = −

∑Ni=1

1N

log 1N

= logN , endonde N es el numero de sımbolos de la fuente.

2.5.1 Capacidad de Canal Gaussiano

La relacion entrada-salida para un canal Gaussiano discreto con potencia limitada esta dadapor

Y = X + Z ,

en donde Z es una variable aleatoria Gaussiana de media cero y varianza σ2Z . Shannon demostro

que el numero de mensajes que pueden ser confiablemente transmitidos esta determinado porla razon que existe entre los volumenes de hiperesferas, y llego al resultado que la capacidad delcanal Gaussiano esta determinada por

36

Page 42: Apuntes de Comunicaciones Digitales

CAPITULO 2. TEORIA DE LA INFORMACION

C = W log

(1 +

P

N0W

)bits/seg. , (2.12)

en donde W es el ancho de banda del canal, P es la potencia de la senal y N0

2es la densidad

espectral de potencia del ruido del canal.

37

Page 43: Apuntes de Comunicaciones Digitales

Capıtulo 3

Modulacion en Banda Base

3.1 Introduccion

Como se menciono en el Capıtulo 1, la transmision de informacion es mejor realizarla en formadigital que hacerlo de forma analoga, por lo que el transformar una senal analoga en una digitales un tarea de vital importancia en el curso. Para realizar esta tarea, se deben realizar tresetapas: La senal analoga debe ser muestreada en el tiempo, por lo que se genera una senal detiempo discreto y amplitud continua. Se dice que la amplitud es continua pues su valor puedetener cualquier numero real dentro del rango en el que se mueve la senal analoga original. Lasiguiente etapa corresponde a la cuantizacion de estos valores reales a un numero finito deposibles valores, con el fin de poder representarlos mediante numeros binarios. Ambas etapasfueron introducidas en el Capıtulo 1 de este curso.

La tercera etapa en el proceso de conversion analogo-digital es la codificacion, en dondeuna secuencia de bits es asignada a cada uno de los diferentes valores posibles de la salida delcuantificador, como se estudio en el Capıtulo 2. Dado que el numero de salidas es finito, cadamuestra puede ser representada por un numero finito de bits; por ejemplo 256 valores posiblespodran ser representados por 8 bits (256 = 28), razon por la cual se utiliza un numero de nivelesque sea potencia de dos. A continuacion se retomaran los conceptos de muestreo, cuantizaciony codificacion, ahondando mas en ellos y presentando alternativas que materializan esta labor.

3.2 Muestreo de Senales

3.2.1 Recuperacion de Senales Muestreadas

Si se considera que la senal x(t) es de espectro acotado con ancho de banda W , y se elige lafrecuencia de muestro como fs = 2W , cada una de las replicas estara separada de sus vecinaspor una banda de frecuencias exactamente igual a fs [Hz], tal como se observa en la Fig. 1.4(f).

Resulta entonces evidente, que si la frecuencia de muestreo es fs < 2W , los espectros setraslaparan y la reconstruccion de la senal original sera imposible. Esta distorsion es conocidacomo aliasing. Si se garantiza una frecuencia de muestreo superior al doble del ancho de banda,este fenomeno no ocurre y la reconstruccion de la senal se puede realizar facilmente con el filtroapropiado, ya que las replicas espectrales se alejan entre sı. Cuando se utiliza exactamente el

38

Page 44: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

doble del ancho de banda de la senal, se dice que se trabaja con la Frecuencia de Muestreode Nyquist.

En efecto, para recuperar la senal original, basta que el filtro tenga una respuesta dada por

H(f) =

Ts , | f |< W0 , | f |≥ fs −W

(3.1)

Para el rango W ≤| f |< fs −W , el filtro puede tener cualquier caracterıstica que permita unafacil implementacion, siendo un filtro pasabajos ideal el metodo menos practico en terminos desimplicidad, pero el mas sencillo para realizar un estudio de desempeno. Entonces, considereseque el filtro tiene una respuesta en frecuencia dada por

LPF (f) = Ts Π

(f

2W ′

)con W ′ como ancho de banda y que satisface la relacion W ≤ W ′ < fs −W . Ahora bien, lareconstruccion de la senal se lograra tomando la convolucion entre la senal discreta y dicho filtroen el tiempo, por lo tanto en el plano de la frecuencia se tiene,

X(f) = Xs(f) Ts Π

(f

2W ′

).

Tomando la transformada de Fourier inversa, se tiene:

x(t) = xs(t) ∗ 2W ′Ts sinc(2W′t) =

∞∑n=−∞

2W ′Ts x(t) sinc(2W ′(t− nTs)) (3.2)

en donde sinc(t) = sinπtπt

. La relacion dada por la Ecuacion (3.2), demuestra que la recon-struccion de la senal puede ser perfectamente hecha al utilizar la funcion sinc() para la inter-polacion.

En sistemas practicos, el muestreo siempre se realiza a frecuencias superiores a la tasa deNyquist, lo que a su vez implica un diseno de filtro mucho mas relajado. En dichos casos ladistancia entre dos espectros replicados, que esta dada por (fs−W )−W = fs−2W es conocidacomo banda de guarda. Por lo tanto, en sistemas con banda de guarda, la frecuencia demuestreo esta dada por fs = 2W +WG, en donde W es el ancho de banda de la senal de bandalimitada. Al observar la Fig. 1.4(f), se puede notar que para el ejemplo, la banda de guardasera de WG = 70[Hz].

3.2.2 Errores en el Muestreo

De acuerdo a lo visto hasta ahora, una senal x(t) puede ser perfectamente recuperada de susmuestras siempre cuando esta sea de espectro acotado y se realice el muestreo a una tasa superioral doble de su ancho de banda. Esto se conoce en la literatura con el nombre de Teorema delMuestreo. El teorema del muestreo es llamado tambien Teorema de Shannon o Teorema deKotelnikov, y su demostracion mas simple es la realizada en la seccion anterior mediante lautilizacion de la transformada de Fourier de la senal muestreada.

39

Page 45: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

En la practica, el muestreo tiene tres grandes fuentes de errores: redondeo, truncamiento yaliasing. Los errores de redondeo ocurren cuando varios valores de muestras son redondeadosen un sistema de comunicacion. Este error recibe el nombre formal de ruido de cuantizacion yse estudiara con mas detalle en los proximos capıtulos. El teorema del muestreo requiere quelas muestras sean tomadas durante un tiempo infinito, por lo que cada una de estas muestras esutilizada para la reconstruccion de cualquier valor de la senal en cualquier instante de tiempo.Sin embargo, en sistemas reales las senales son observadas durante un intervalo finito de tiempo,apareciendo el error de truncamiento; para realizar un analisis de este error, normalmente sedefine un funcional de error como la diferencia entre la senal reconstruıda y la senal original,permitiendo definir cotas superiores en el error y como consecuencia, intervalos de tiempo deobservacion mınimos requeridos.

Un tercer error ocurre cuando la frecuencia de muestreo no es lo suficientemente alta. Esterecibe el nombre tecnico de aliasing y como se explico anteriormente corresponde al traslapeque existe en los espectros de la senal original y sus replicas originadas por el muestreo. Existenprincipalmente dos formas de solucionar este problema. La primera es aumentar la frecuencia demuestreo a un valor muy por encima de la frecuencia de Nyquist con el fin de alejar lo suficientecada una de las replicas del espectro original. Como ejemplo observe la Fig. 3.1; si al muestreara fs se produce aliasing, al aumentar la frecuencia de muestreo a f ′s > fs entonces las replicasse alejaran lo suficiente para eliminar el problema.

Fig. 3.1: Solucion inmediata al aliasing mediante el muestreo a frecuencias superiores

Otra solucion es incluir un filtro antialiasing cuando la frecuencia de muestreo no se puedemodificar por alguna razon puntual como, por ejemplo, disponibilidad tecnica. La primeraforma es realizar un prefiltrado para reducir el ancho de banda de la senal original de W aW ′ de tal forma que para el mismo fs se cumpla que fs < 2W , pero fs ≥ 2W ′. Esta es unabuena practica de ingenierıa, sin embargo, dependiendo de las caracterısticas de la senal original,puede haber perdida importante de informacion. Esta solucion se representa en la Fig. 3.2 endonde la linea segmentada corresponde a la senal original y su espectro muestreado sin realizarel prefiltrado. La otra forma de implementar un filtro es realizando un postfiltrado en el cual serealiza el muestreo a la tasa disponible y luego se filtra el espectro en W ′′, hasta justo antes deque se tenga aliasing. Resulta claro que W ′′ tiene que ser menor que fs −W . Igualmente paraesta solucion, se tiene perdida de informacion por lo que la frecuencia de muestreo, el anchode banda de corte y el tipo del filtro seleccionado para una senal particula estan estrictamenterelacionados.

40

Page 46: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Fig. 3.2: Filtrado de la senal original para eliminar el aliasing. Senal continua y muestradaluego del muestreo

Fig. 3.3: Filtrado de la senal muestreada para eliminar el aliasing.

41

Page 47: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

3.2.3 Muestreo Natural

A pesar que el muestreo instantaneo mediante impulsos es un modelo conveniente para entenderel concepto, una forma mas practica de implementacion es mediante la multiplicacion de la senalanaloga x(t) por un tren de pulsos xp(t), mostrada en la Fig. 3.4(a). Cada pulso en xp(t) tiene unancho Tp, una amplitud 1/Tp y evidentemente su duracion total es Ts. Esta multiplicacion puedeser vista como el proceso de apertura/cerrado de un switch. La senal muestreada resultantexs(t) se muestra en la Fig. 3.4(c) y se puede expresar mediante la relacion

xs(t) = x(t) xp(t) . (3.3)

Aca se habla de muestreo natural pues cada pulso mantiene la forma de su segmento analogocorrespondiente durante el intervalo de duracion de cada uno de los pulsos. Utilizando series deFourier, el tren de pulsos se puede representar mediante

xp(t) =∞∑

n=−∞

xnejnωst ,

en donde ωs = 2πfs, siendo fs = 1/Ts la frecuencia de muestreo que se elige igual a 2W parasatisfacer el criterio de Nyquist. Los coeficientes de Fourier, xn, estaran determinados por

xn = 1Tssinc

(nTpTs

). Su representacion en el plano de la frecuencia se puede ver en la Fig. 3.4(b)

en donde se ha marcado la envolvente de magnitud con una lınea segmentada (funcion |sinc()|).Combinando esta expansion en series de Fourier con la definicion de xs(t) se tiene

xs(t) = x(t) xp(t) = x(t)∞∑

n=−∞

xnejnωst .

Tomando la transformada de Fourier a esta ultima definicion, el espectro de la senal muestradaen forma natural, Xs(f), se puede calcular mediante

Xs(f) = F

[x(t)

∞∑n=−∞

xnejnωst

]

=∞∑

n=−∞

xn F[x(t) ejnωst

]=

∞∑n=−∞

xn X(f − nfs) , (3.4)

en donde se utilizo el hecho de que, para sistemas lineales, se puede intercambiar las operacionesde suma y transformada de Fourier. Al igual que la Ecuacion (1.28), la Ecuacion (3.4) demuestraque Xs(f) es un replica de X(f) repetida periodicamente cada fs[Hz]. Sin embargo al realizar

el muestreo natural, las amplitudes estan atenuadas por la envolvente xn = 1Tssinc

(nTpTs

)como

se observa en la Fig. 3.4(d). Se puede demostrar que en el lımite, mientras el ancho del pulso Tptiende a cero, xn tiende a 1/Ts para todos los valores posibles de n, por lo tanto la Ecuacion (3.4)tiende a la Ecuacion (1.28).

42

Page 48: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

(a) Tren de Pulsos (b) Espectro Tren de Pulsos

(c) Senal Muestreada (d) Espectro Senal Muestreada

Fig. 3.4: Muestreo natural de senal analoga mediante tren de pulsos

3.2.4 Sample-and-Hold

El mas simple y mas popular metodo de muestreo y cuantizacion conocido como Sample-and-Hold (muestreo y retencion) puede ser descrito mediante la convolucion de la senal muestredadada en la Fig. 1.4(e) con un pulso rectangular de amplitud unitaria y ancho de pulso Ts, p(t).Esta convolucion en el tiempo se puede expresar de la forma

xsh(t) = p(t) ∗ xs(t) = p(t) ∗ [x(t)xδ(t)]

= p(t) ∗

[x(t)

∞∑n=−∞

δ(t− nTs)

].

Estos resultados se puden observar en la Fig. 3.5(a). La transformada de Fourier de la senal S/Hse ve afectada por la presencia del pulso p(t) y su transformada de Fourier dada por Tssinc(fTs).Ası, el espectro resultante tiene una apariencia similar al espectro del muestreo natural, tal comose puede observar en la Fig. 3.5(b).

43

Page 49: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

(a) Operacion Sample-and-Hold (b) Espectro senal Sample-and-Hold

Fig. 3.5: Sample-and-Hold para la senal analoga

3.3 Cuantizacion

Como se explico anteriormente, en este proceso se realiza la discretizacion de la amplitud de lassenales, lo que permite representar la senal de forma valida con valores binarios de largo finito.En la presente seccion se estudiara la cuantizacion escalar uniforme y no-uniforme, ademas dela cuantizacion vectorial.

3.3.1 Cuantizacion Escalar

En la cuantizacion escalar cada muestra es cuantificada como un valor puntual dentro de unrango finito de valores posibles, lo que se traduce en una accion de redondeo de las cifras.Para esto, el espacio de numeros reales < se particiona en M subconjuntos denotados porRm, 1 ≤ m ≤ M que se llamaran Regiones de Cuantizacion. Asociado a cada subset Rm, unPunto de Representacion xm es elegido, vale decir que para el instante k, si la muestra x(k)pertenece a Rm, entonces es redondeado al valor xm.

Dado que se tienen M posibles valores de cuantizacion, entonces se requieren log2M bitspara poder hacer la codificacion en secuencias binarias. De igual forma, el numero de bits quese requieren para transmitir cada muestra de la fuente, sera: v = log2M bits.

Resulta facil notar que al incluir estos redondeos, la senal resultante tiene cierta distorsioncon respecto a la senal original, tal como se discutio anteriormente. Este error recibe el nombrede error de cuantizacion. Para su descripcion, es necesario considerar la funcion de cuantizaciondefinida por

Q(x) = xi, ∀x ∈ Ri ,

que resume el hecho de que si el valor a cuantizar, x, cae dentro de la i-esima region Ri =(ai−1, ai], entonces se aproximara (redondeara) por el valor xi. En general, al definir un errorse considera la diferencia cuadratica entre una referencia y el valor bajo estudio que para estecaso estan dados por el valor sin cuantizar y cuantizado respectivamente. Por esto, el error, que

44

Page 50: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

recibe el nombre de error cuadratico de distorsion, esta definido por

d(xi, xi) = (xi − xi)2 . (3.5)

Considerando que d(xi, xi) es la distorsion medida por letra, entonces la distorsion entre unasecuencia de n muestras, Xn, y sus correspondientes n muestras cuantizadas, Xn, esta deter-minada por el promedio sobre las n muestras de las salidas de la fuente, es decir,

d(Xn, Xn) =1

n

n∑i=1

d(xi, xi) .

Dado que las salidas de la fuente, Xn, son variables aleatorias, entonces d(Xn, Xn) tambienes una variable aleatoria. Ası, para tener una cantidad representativa para todas las posibles sal-idas es necesario especificar el error cuadratico de distorsion medio. Este error esta determinadopor

D = Ed(Xn, Xn)

=

1

n

n∑k=1

E d(xk, xk) = E d(xk, xk) . (3.6)

lo que es valido al considerar que se trabaja con una fuente estacionaria.En la Figura 3.6 se puede ver un ejemplo de un esquema de cuantizacion de 8 niveles, en

los cuales la variable x es seccionada en sus respectivas aproximaciones x1, x2, . . . , x8, para lossubintervalos dados por R1 = (−∞, a1], R2 = (a1, a2], . . . , R8 = (a7,+∞) respectivamente. Noresulta dificil notar que este grafico corresponde a la representacion de la funcion de cuantizacionQ(x).

Ejemplo 3.1 - Error de Distorsion.Considere una fuente X(t), Gaussiana, con media cero, estacionaria y con una PSD dada por:

ρX(f) =

2 , | f |< 100Hz0 , i.o.c.

Esta fuente es muestrada a la frecuencia de Nyquist y que cada muestra esta cuantizadausando un cuantizador de ocho niveles como en la Figura 3.6. Los niveles utilizados sonai ∈ −60,−40,−20, 0, 20, 40, 60, que se redondean a xi ∈ −70,−50,−30,−10, 10, 30, 50, 70.Se pide calcular la distorsion y tasa resultante.Sol. Dado el ancho de banda de la fuente, su frecuencia de muestreo sera fs = 2W = 200Hzpara satisfacer la condicion de muestreo a la frecuencia de Nyquist. Considerando entoncesun cuantizador de 8 niveles, entonces se requieren 3 bits para realizar la descripcion de cadamuestra. Ası, la tasa estara dada por R = 3fs = 600 bits/s. La varianza de la fuente es σ2

X =

E X2 = R (0) =∫ +∞−∞ ρX(f)df =

∫ 100

−1002df = 400, ya que es un proceso con media cero. Esto

permite definir la funcion de distribucion de probabilidad dada por fX(x) = 1√2π400

exp(− x2

800),

pues es una fuente Gaussiana. Ahora bien, la distorsion estara dada por:

D = E

(X − X)2

=

∫ +∞

−∞(x−Q(x))2fX(x) dx =

8∑i=1

∫Ri

(x−Q(x))2fX(x) dx

=

∫ a1

−∞(x− x1)2fX(x) dx+

∫ a2

a1

(x− x2)2fX(x) dx+ · · ·+∫ +∞

a7

(x− x8)2fX(x) dx.

45

Page 51: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Fig. 3.6: Ejemplo de un esquema de cuantizacion de 8 niveles

Reemplazando los valores de ai, xi y utilizando la definicion de fX(x) se obtiene que D ≈33.345.

Es muy interesante comparar el resultado anterior con la distorsion maxima que se podrıaobtener en el mismo sistema. Dicha distorsion maxima se logra al no utilizar ningun bit porcada salida de la fuente, caso en el cual la senal reconstruida sera siempre cero. Ası, la maximadistorsion sera Dmax = E (X − 0)2 = E X2 = σ2

X = 400. Este ultimo resultado permitededucir que al utilizar 3 bits por salida de la fuente, la distorsion se ha reducido en un factorde 12.

A pesar de lo descriptivo del error de cuantizacion, existe una metrica mas exacta puesesta normalizada con respecto a la potencia de la senal original. Recibe el nombre de RazonSenal-Ruido de Cuantizacion (SQNR, Signal-to-Quantization Noise Ratio) y se basa enla comparacion anteriormente hecha con respecto a la distorsion maxima. Esta metrica estadefinida por:

SQNR =E X2

E (X −Q(X))2. (3.7)

Cabe destacar que considerando las definiciones de potencia de la senal original y de la cuanti-zada, el SQNR esta determinado por la razon entre la potencia de la senal (PX) y la potenciade la senal obtenida al realizar la diferencia entre la senal original y la cuantizada (PX), con

X = X − X.

46

Page 52: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Ejemplo 3.2 - Razon Senal-Ruido de Cuantizacion.Determine el SQNR para el esquema de cuantizacion utilizado en el Ejemplo 3.1.Sol. Se determino previamente que PX =

∫ρX(f) df = 400. Ademas la potencia del ruido de

cuantizacion esta dado por PX = 33.345, entonces SQNR = 400/33.345 = 11.995 ≈ 10.79dB.

Cuantizacion Uniforme

La cuantizacion uniforme es la mas simple de todas las tecnicas de cuantizacion ya que todaslas particiones, excepto R1 y RM , estan equidistante en un valor denotado por ∆, por lo que eli-esimo borde estara dado por ai = a1 + (i− 1)∆. En general y por simplicidad, se asume quelos niveles de cuantizacion se encuentran a una distancia de ∆

2de los M − 1 bordes, luego los

niveles de cuantizacion estan dados por xi = ai − ∆2

= a1 + (i − 32)∆. Se puede notar que la

Figura 3.6 muestra un ejemplo de un cuantizador uniforme ya que cumple las condiciones recienexpuestas. En un cuantizador uniforme, el error de distorsion medio esta determinado por

D =M∑i=1

∫Ri

[x−Q(x)]2fX(x) dx

=

∫ a1

−∞[x− x1]2 fX(x) dx+

M−2∑i=1

∫ ai+1

ai

[x− xi+1]2 fX(x) dx+

∫ ∞aM

[x− xM ]2 fX(x) dx

=

∫ a1

−∞

[x−

(a1 −

2

)]2

fX(x) dx+M−2∑i=1

∫ a1+i∆

a1+(i−1)∆

[x−

(a1 + i∆− ∆

2

)]2

fX(x) dx+∫ ∞a1+(M−2)∆

[x−

(a1 + (M − 2)∆ +

2

)]2

fX(x) dx . (3.8)

Conforme a esto, el error de distorsion sera una funcion de dos parametros a1 y ∆, por loque para obtener un diseno optimo del cuantizador uniforme se debe minimizar este funcionalD ≡ D(a1,∆). La minimizacion se realiza tomando derivadas parciales del funcional conrespecto a ambas variables e igualando a cero. En general esta es una tarea compleja por lo quese realiza mediante metodos numericos. En la Tabla 3.1 se muestra el espaciado optimo de losniveles de cuantizacion para una fuente aleatoria Gaussiana con media nula y varianza unitaria.

Cuantizacion No-uniforme

Si se relaja la condicion de que la separacion sea igual para todas las regiones, entonces se lograminimizar la distorsion con menos apremios. Ası, el cuantizador no-uniforme tiene un mejorrendimiento que el uniforme para un mismo numero de niveles. Primero que todo, se veraintuitivamente el porque.

Suponga una pieza musical en donde su forma de onda se mueve en un rango de voltajes de-2 a 2[V]. Suponga ademas que se utilizan 3 bits en la cuantizacion de dicha senal analoga. Sise realiza cuantizacion uniforme, entonces todos los voltajes entre 0 y 0.5[V] seran codificadoscomo 100, que corresponde a un valor de reconstruccion de 0.25[V]. De igual forma, todas las

47

Page 53: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Tabla 3.1: Cuantizador Uniforme Optimo para una fuente GaussianaNiveles de Cuantizacion Espaciado entre bordes Error medio cuadratico Entropıa

M ∆ D H(X)1 – 1.000 0.02 1.596 0.3634 1.0004 0.9957 0.1188 1.9048 0.5860 0.03744 2.76116 0.3352 0.01154 3.60232 0.1881 0.003490 4.449

muestras entre 1.5 y 2[V] se codificaran como 111, que se reconstruira como 1.75[V]. Ahorabien, durante pasajes suaves de musica en donde la senal analoga no supere los 0.5[V], se tendrauna gran perdida de la definicion de la musica. En otras palabras, la cuantizacion otorga lamisma resolucion tanto para altos como para bajos niveles, aun cuando el oido humano esmenos sensible a los cambios que se producen en altos niveles. Dado que la respuesta del oidohumano es no-lineal, entonces es preferible tener una cuantizacion de pasos pequenos a bajosniveles y con pasos mas grandes en los niveles mas altos.

Considerando que se quiere disenar un cuantizador de M niveles, optimo en el sentido delerror medio cuadratico, se tiene que la distorsion media es:

D =

∫ a1

−∞(x− x1)2fX(x) dx+

M−2∑i=1

∫ ai+1

ai

(x− xi+1)2fX(x) dx+

∫ +∞

aM−1

(x− xM)2fX(x) dx ,

en donde existen 2M − 1 variables de las que D depende: (a1, a2, . . . , aM−1, x1, x2, . . . , xM) y laminimizacion del error D se tiene que hacer con respcto a estas variables. Tomando derivadasparciales con respecto a todos los ai e igualando a cero, se tiene

∂D

∂ai= fX(ai)

[(ai − xi)2 − (ai − xi+1)2

]= 0

lo que resulta en

ai =xi + xi+1

2(3.9)

Este resultado significa que en un cuantizador optimo los bordes de las regiones de cuanti-zacion son los puntos medio de los niveles de cuantizacion. Dado que la cuantizacion se realizabasandose en una mınima distancia entonces cada valor de x es cuantizado al xiMi=1 mascercano.

Para determinar los niveles de cuantizacion xi, se toman derivadas parciales con respecto atodos los xi, se definen a0 = −∞ y aM = +∞ y se iguala a cero para obtener

∂D

∂ai=

∫ ai

ai−1

2(x− xi)fX(x) dx = 0

lo que resulta en

xi =

∫ aiai−1

xfX(x) dx∫ aiai−1

fX(x) dx. (3.10)

48

Page 54: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Esto significa que para un cuantizador optimo, el valor de cuantizacion para una region, debeser elegido como el centroide de dicha region. Ambas condiciones impuestas para el cuantizadorescalar optimo se conocen como las condiciones de Lloyd-Max y pueden ser resumidas como

1. Los bordes de las regiones de cuantizacion son los puntos medios de los valores de cuan-tizacion correspondientes (ley del vecino mas cercano)

2. Los valores de cuantizacion son los centroides de las regiones de cuantizacion.

A pesar de que estas reglas son muy sencillas, no resultan ser soluciones analıticas parael diseno de un cuantizador optimo. El metodo usual para disenar un cuantizador optimo escomenzar con un set de regiones de cuantizacion y luego usar el segundo criterio para encontrarlos valores de cuantizacion. Luego se realiza el calculo de las nuevas regiones de cuantizacionpara los valores antes encontrados y se procede repetidamente haste que la distorsion no cambiesignificativamente entre un paso y otro. Utilizando este metodo se puede disenar el cuantizadorno-uniforme optimo para diferentes fuentes aleatorias. La Tabla 3.2 muestra el cuantizadornouniforme optimo para varios niveles de cuantizacion de una fuente Gaussiana de media cero yvarianza unitaria. En caso de trabajar con con una fuente Gaussiana con media µ y varianza σ2

entonces los valores de ai y de xi deben ser reemplazados por µ+σai y µ+σxi respectivamentey el valor del error de distorsion medio, D, debe ser reemplazado por σ2D.

Tabla 3.2: Cuantizador No-uniforme Optimo para una fuente GaussianaNiveles Bordes Valores Distorsion Entropıa

M ±ai ±xi D H(X)1 – 0 1 02 0 0.7980 0.3634 1

40 0.4528

0.1175 1.9110.9816 1.510

8

0 0.2451

0.03454 2.8250.5006 0.75601.050 1.3441.748 2.152

16

0 0.1284

0.009497 3.765

0.2582 0.38810.5224 0.65680.7996 0.94241.099 1.2561.437 1.6181.844 2.0692.401 2.733

En general, la cuantizacion no uniforme presenta menor error de distorsion principalmentepor que las regiones no son estrictas y se pueden adecuar mejor a las aplicaciones particularesque exige cada senal. En la Fig. 3.7 se muestra la comparacion entre una senal debil y unafuerte, utilizando para ambas las dos opciones de cuantizacion; a la izquierda se usa cuantizacion

49

Page 55: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

uniforme y a la derecha no-uniforme. Se puede observar que para ambas senales, se logra unamejor aproximacion mediante la cuantizacion nouniforme. Por esta razon, se estudia el conceptode Companding en la siguiente seccion.

Fig. 3.7: Comparacion entre Cuantizacion Uniforme y No-uniforme

Ejemplo 3.3 - Cuantizacion No-uniforme.Basandose en el resultado del Ejemplo 3.1, se pide estudiar el SQNR al utilizar un cuantizadorno-uniforme para la misma fuente Gaussiana.Sol. Para realizar la comparacion se utilizaran los mismos niveles de cuantizacion (M = 8) enla Tabla 3.2. Como la fuente es Gaussiana y se obtuvo anteriormente que µ = 0 y σ2 = 400,entonces los valores de ai y xi se deberan multiplicar por σ = 20 y la distorsion debe multiplicarsepor 400. Ası los valores obtenidos seran: a1 = −a7 = 34.96; a2 = −a6 = −21; a3 = −a5 =−10.012; y a4 = 0 para los bordes de las regiones, y x1 = −x8 = −43.04; x2 = −x7 = −26.88;x3 = −x6 = −15.12; y x4 = −x5 = 4.902 para los valores de cuantizacion. La distorsion seraD = 13.816 lo que es significativamente menor a lo obtenido para el cuantizador uniforme. ElSQNR sera

SQNR =σ2

D=

400

13.816= 28.95 ≈ 14.62dB ,

que es 3.84 dB mejor que el SQNR de un cuantizador uniforme.

Companding

La forma mas comun de realizar cuantizacion no-uniforme es conocida como companding, nom-bre que se origina por la combinacion de los terminos comprension-expansion en ingles. Su

50

Page 56: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

funcionamiento se puede ejemplificar como la conexion en cascada de un amplificador de com-presion, F (x) y un cuantizador; para la recuperacion se tendra un decodificador y un amplifi-cador de expansion, F−1(x). Se entendera entonces que la senal original es comprimida usandoun dispositvo no-lineal y sin memoria. Ası, antes de realizar la cuantizacion, la senal se distor-ciona por una funcion similar a la que se muestra en la Fig. 3.8. Esta operacion comprime losvalores extremos de la forma de onda, mientras que mejora los valores pequenos en el mismosistema de ejes. Ahora, si la senal analoga comprimida es cuantizada en forma uniforme, elresultado es equivalente a cuantizar con pequenos pasos en valores bajos de la senal y pasosmas grandes para los valores superiores.

Fig. 3.8: Curva tıpica de compresion

La principal aplicacion de companding se da en la transmision de senales de voz o audioen general. Como antecedente, se deja constancia de que el sistema Dolby Noise Reductioncorresponde a una implementacion de esta tecnica. En USA y Japon se adopto como estandarde compresion la llamada ley-µ, en cambio en Europa se utilizo el estandar conocido como ley-A.La formula de compresion de la ley-µ esta determinada por

F (x) = sgn(x)ln (1 + µ|x|)ln (1 + µ)

, (3.11)

y su curva para distintos valores de µ se muestra en la Fig. 3.9. Notese que el valor de µ = 0corresponde a una situacion sin compresion. Un valor utilizado con frecuencia es el de µ = 255(8 bits) ya que presenta una alta compresion, sin embargo la aplicabilidad dependera de lascondiciones de contorno fijadas por la senal a tratar.

Por su parte, la formula de compresion de la ley-A esta determinada por

F (x) = sgn(x)1

1 + lnA

A |x| , |x| < 1

A

1 + ln (A |x|) , 1A≤ |x| ≤ 1

, (3.12)

en donde A es el parametro de compresion. En Europa es frecuente utilizar A = 87.7 comoestandar de compresion.

51

Page 57: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Fig. 3.9: Curva de Compresion de la Ley-µ

3.3.2 Cuantizacion Vectorial

En el proceso de cuantizacion escalar, se toma cada una de las salidas de la fuente en tiempodiscreto y se cuantiza en forma separada. En esta seccion se estudiara la cuantizacion conjuntade un bloque de muestras que recibe el nombre de cuantizacion vectorial o por bloque y quees ampliamente utilizada en codificacion de la voz para sistemas de celulares digitales. Uno delos puntos mas importantes a considerar, es que la cuantizacion vectorial, en general, presentamejor desempeno que la cuantizacion escalar aun cuando la fuente de amplitud continua noposea memoria. Ademas, si por alguna razon las muestras son estadısticamente dependientes,al utilizar cuantizacion vectorial se puede aprovechar dicha condicion; lo que equivale a decirque al cuantizar un conjunto de muestras se lograra una mejor eficiencia (menor tasa de bits)que al hacerlo en forma independiente mediante cuantizacion escalar

La cuantizacion vectorial puede ser formulada como sigue. Considerese que el espacio m-dimensional se subdivide en M regiones o celdas distintas que se notaran por Ci. Consideresetambien un vector m-dimensional de dicho espacio x = [x1 x2 . . . xm] con componentes realesy de amplitud continua. Este vector representa uno de los bloques de salida de la fuente yesta decrito por la PDF conjunta p(x1, x2, . . . , xm). El vector x es cuantizado en otro vectorm-dimensional denotado por x = [x1 x2 . . . xm] bajo la condicion de que si x ∈ Ci, entonceses cuantizado en Q(x) = xi. Basicamente la cuantizacion vectorial puede ser vista como unproblema de reconocimiento de patrones, que involucra la clasificacion de bloques de datos enun numero discreto de categorıas (celdas), con el fin de optimizar algun criterio de calidad (errorde distorsion cuadratico medio).

Por ejemplo, considere la cuantizacion de vectores bidimensionales x = [x1 x2]. El espaciode dos dimensiones es particionado en celdas como se muestra en la Fig. 3.10, en donde seeligio arbitrariamente una forma hexagonal para las celdas Ci. Todos los vectores de entradaque caigan dentro de la i-esima celda Ci seran cuantizados en el vector xi que en la figura se

52

Page 58: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Fig. 3.10: Cuantizacion vectorial para espacio bidimensional

representan como el centro de cada hexagono. En este ejemplo existen L = 37 vectores, unopara cada una de las 37 celdas en que se ha particionado el espacio bidimensional, por lo quelas posibles salidas del cuantizador vectorial se representan por xiLi=1.

Conforme a lo explicado anteriormente y lo estudiado para cuantizacion escalar, la cuanti-zacion de un vector m-dimensional x en otro x generara un error de cuantizacion d(x, x) cuyovalor medio sobre el set de vectores de entrada x sera:

D =L∑i=1

P (x ∈ Ci)E d(x, xi)|x ∈ Ci =L∑i=1

P (x ∈ Ci)∫x∈Ci

d(x, xi)p(x) dx , (3.13)

en donde P (x ∈ Ci) es la probabilidad de que el vector x caiga en la celda Ci y p(x) es la PDFconjunta que define las m variables aleatorias anteriormente descrita. Tal como se realizo paracuantizacion escalar, para una PDF dada se puede realizar la minimizacion de D seleccionandolas celdas xiLi=1.

Una medida de distorsion comunmente utilizada es el error medio cuadratico con norma 2definido por

d2(x, x) =1

m(x− x)T (x− x) =

1

m

m∑i=1

(xi − xi)2 ,

o, mas generalmente, el error medio cuadratico ponderado

d2W (x, x) = (x− x)TW (x− x)

en donde W es una matriz de ponderacion definida positiva. Usualmente W se elige como lainversa de la matriz de covarianza del vector de datos de entrada x. En la codificacion de lavoz, una medida apropiada para la distorsion fue propuesta por Itakura y Satio (1968, 1975) ycorresponde a elegir la matriz de ponderacion como la matriz de autocorrelacion normalizadade los datos observados.

53

Page 59: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

3.4 Codificacion

El proceso de codificacion o encoding, corresponde a la asignacion de una secuencia de bits alos diferentes niveles de cuantizacion. Dado que se tiene un total de M = 2v niveles, entonces vbits son suficientes para el proceso de encoding. Basado en lo mismo, como se tienen v bits pormuestra, que se tomo a un frecuencia de muestreo de fs[Hz], entonces la tasa de bits esta dadapor R = vfs bits por segundo, tal como se obtuvo en el Ejemplo 3.1.

La asignacion de bits a los niveles de cuantizacion puede ser realizada de diferentes maneras.En cuantizacion escalar, una forma natural de realizar el encoding, es asignando valores de 0 aM − 1 a los diferentes niveles de cuantizacion comenzando desde el nivel mas bajo hacia el masalto de manera creciente. Esto implica que el nivel mas bajo tendra el valor 00. . . 0 y el masalto de 11. . . 1, ambos de largo v. Esta asignacion, recibe el nombre de Codificacion BinariaNatural. A pesar de ello existen tecnicas mejoradas como la Codificacion Grey, que se estudioen cursos anteriores.

3.5 Fuentes de Corrupcion

Hasta ahora, se ha centrado el estudio en la senal analoga que se muestrea, cuantiza y codificapara ser transmitida mediante el canal digital. De la secuencia de bits recibidos, se generarauna senal analoga tipo escalera que corresponde a la senal recuperada en el receptor. Estasenal recuperada puede estar corrupta por multiples fuentes presentes tanto en el proceso demuestreo-cuantizacion, como en el canal por el que la secuencia de bits fue transmitida. Acontinuacion se presentan los efectos mas importantes.

3.5.1 Efectos del Muestreo y la Cuantizacion

Aparte de los problemas que se estudiaron en la Seccion 3.2.2, existen errores asociados alcuantizador, que se mencionaran a continuacion.

Ruido de Cuantizacion

La distorsion inherente en la cuantizacion es el error de redondeo o truncamiento. El procesode transformar una senal de amplitud continua en una senal con un numero finito de posiblesvalores hace que cierta informacion se deseche. Esta distorsion, que en definitiva es agregadapor la necesidad de trabajar con amplitud discreta, recibe el nombre de Ruido de Cuantizacion,como se ha estudiado hasta ahora. Resulta intuitivo notar que la cantidad de este ruido esinversamente proporcional al numero de niveles utilizados en el proceso de cuantizacion.

Saturacion del Cuantizador

El cuantizador asigna M niveles a la tarea de aproximar el rango continuo de entradas con unnumero finito de salidas. El rango de entradas para los cuales la diferencia entre la entrada y lasalida del cuantizador es pequena, recibe el nombre de rango de operacion de dicho cuantizador.Si la entrada excede tal rango, la diferencia entre la entrada y la salida crecera y el convertidor

54

Page 60: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

analogo-digital estara en saturacion. En general los errores de saturacion son mas problematicosque el ruido de cuantizacion, por lo que preferentemente se utiliza un control de automatico deganancia (AGC, en ingles) que extiende efectivamente el rango de operacion del convertidor.

3.5.2 Efectos del Canal

Ruido del Canal

El ruido termico, la interferencia desde otros usuarios y la interferencia desde un circuito deswitching pueden producir errores en la deteccion de los pulsos que llevan las muestras digital-izadas, como se observa en la Fig. 3.11. Los errores introducidos por el canal, que reciben elnombre de efecto umbral, pueden degradar la calidad de la senal reconstruıda muy rapido.

Fig. 3.11: Distorsion de un pulso al transmitirlo por un canal ruidoso

Si el ruido del canal es pequeno no habran problemas al momento de detectar las senales, sinembargo si el ruido del canal es tan grande para afectar la habilidad de detectar las formas deonda, la deteccion resultante tendra errores de reconstruccion. Mas aun, por pequenos cambiosen los niveles de ruido de un canal, se pueden tener grandes diferencias en el comportamientode dicho canal.

Interferencia entre Sımbolos

El canal siempre es de banda limitada por lo que dispersa o extiende a los pulsos que pasana traves de el. Cuando el ancho de banda del canal es mucho mas grande que el del pulso,entonces la extension del pulso es leve; sin embargo cuando ambos ancho de banda son cercanos,la extension sobrepasara la duracion de los sımbolos y hara que los pulsos se traslapen. Estetraslape es llamado interferencia entre sımbolos (ISI, en ingles). Como cualquier otra fuentede interferencia la ISI produce degradacion del sistema (altas tasas de error), pero resulta muycaracterıstica pues el aumentar la potencia de la senal no mejorara el desempeno frente al error.La forma en que se maneja las ISI se vera mas adelante.

3.6 Pulse-Amplitude Modulation (PAM)

En la modulacion de amplitud de pulso (PAM, pulse-amplitude modulation), la amplitud deun tren de pulsos de ancho constante varıa en proporcion a los valores muestreados de unasenal moduladora. En general, los pulsos se toman en intervalos de tiempo equidistantes. Enprimera instancia se considera la senal naturalmente muestrada (sin S/H) como lo muestra laFig. 3.4(c). Resulta evidente que esta senal no es compatible con un canal digital pues existen

55

Page 61: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

infinitos valores posibles para la amplitud de los pulsos, ya que varıan proporcionalmente alos valores de las muestras de la senal moduladora. De manera especıfica, las pendientes delas crestas de los pulsos varıan con las pendientes de la senal moduladora en los puntos demuestreo. A diferencia del muestreo natural, en PAM las crestas de los pulsos deben ser planas;esto mismo implica que se requiere incluır un proceso de cuantizacion posterior para llevar estosvalores a M valores posibles de amplitud que se puedan representar por v = logM bits. Porejemplo, se habla de una modulacion PAM-4 al trabajar con 2 bits, y de PAM-16 al trabajarcon 4 bits, etc.

Todo el analisis teorico realizado para el proceso de muestreo natural y para S/H resultaaplicable en modulacion PAM, por lo que su espectro corresponde al de la Fig. 3.4(d) para unasenal naturalmente muestreada o al de la Fig. 3.5(b) para un esquema con S/H. Al evaluar estarespuesta espectral, se puede notar que la demodulacion se debe implementar mediante unfiltro pasa bajos como primera etapa. Como el espectro esta afectado por la presencia del trende pulsos, entonces es necesario agregar un ecualizador con respuesta en frecuencia dada porX−1p (f), en donde Xp(f) es la transformada de Fourier de tren de pulsos de la Ecuacion 3.3.

A pesar de que esto es bastante dificil de implementar, en la practica solo se requiere unaecualizacion para el rango de frecuencias en que el mensaje es valido: [−W,+W ]. Ası, el disenoes mucho mas relajado y la dificultad de implementacion se ve reducida.

Por otra parte, si el tiempo de duracion del pulso Tp es lo suficientemente pequeno conrespecto al periodo de este, T , entonces cada pulso se asemeja a un impulso y la senal de salidadel modulador sera cada vez mas parecida a un sistema de muestreo mediante impulsos, casoen el que no se requiere ecualizacion. Por esto, se asume como cota para requerir o no unecualizador, que la relacion Tp

Tsea menor al 1%.

3.7 Pulse-Code Modulation (PCM)

La idea de la codificacion por forma de onda, es reproducir una forma de onda de la fuenteen el destino con la menor distorsion posible. En estas tecnicas no se presta atencion en lamanera en que se produce la forma de onda, sino que todos los esfuerzos son dedicados en lareproduccion filedigna de la forma de onda de la fuente. Por lo mismo, los codificadores deforma de onda pueden ser utilizados con una gran variedad de formas de onda, mientras queestas tengan ciertas similitudes.

La modulacion PCM es el mas simple y viejo esquema de codificacion por forma de onda.Consiste basicamente en tres secciones: un sampleador, un cuantizador y un codificador. EnPCM se realizan las siguientes suposiciones:

1. La senal es de banda limitada, con una frecuencia maxima de W , por lo que puede sercompletamente reconstruıda de muestras tomadas a una tasa fs ≥ 2W .

2. La senal tiene amplitud finita, vale decir que existe un maximo de amplitud xmax tal que| x(t) |≤ xmax <∞.

3. La cuantizacion se realiza para un numero alto de niveles de cuantizacion M , que es unapotencia de 2 (M = 2v).

56

Page 62: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Muestreo de Senal Analoga. El muestreo se realiza de la forma en que se estudio en elpresente capıtulo. Dado que la senal debe ser de banda limitada, para poder trabajarcon senales periodicas, se necesita incluir un LPF con ancho de banda W a la entrada delmuestreador, evitando ası armonicos sobre dicha frecuencia.

Cuantizacion. Dependiendo del cuantizador utilizado, uniforme o nouniforme, se tiene unamodulacion PCM uniforme o nouniforme y esto se selecciona dependiendo de las carac-terısticas de la salida de la fuente.

Dentro del proceso de cuantizacion, se debe tener en mente que mientras mas nivelesse utilicen para realizar PCM, mas cercana resulta ser la senal aproximada. En otraspalabras, el numero de niveles utilizados determina la resolucion de la senal. Esto es, lamedida de cuan pequeno puede ser el cambio en la senal original para poder ser visto enla cuantizacion.

Codificacion. Una vez que se ha realizado el proceso de muestreo y redondeo a un numeroapropiado de niveles, se necesita realizar la transmision. Esta transmision debe ser solode la informacion justa, que permita que el receptor pueda comprender que nivel de senalse esta enviando. Por esto, en PCM se codifica cada uno de los niveles en numeros bina-rios, para luego enviarlos dependiendo del nivel que vaya presentando la senal. Ademasconsiderando la suposicion 3, siempre se tendran una represencacion mediante v bits, conv ∈ Z.

Los numeros binarios resultantes, pueden ser transmitidos con gran variedad de tecnicasy representaciones. Por ejemplo se pueden tener representaciones unipolares, bipolares, cono sin retorno a cero, etc. Resulta claro entonces, que un modulador PCM viene a ser unconversor Analogo-Digital (A/D). Ası, la demodulacion (en rigor, decodificacion) se realiza conun conversor Digital-Analogo (D/A).

3.7.1 Representacion de Dıgitos Binarios

Los digitos binarios obtenidos tras un modulador PCM necesitan ser representados mediantepulsos electricos de forma de transmitirlos por un canal en banda base. Una representacion deesto se muestra en la Fig. 3.12, en donde se muestran las palabras generadas por PCM y dosalternativas de representacion. Los slot de tiempo de palabra se muestran en la Fig. 3.12(a),en donde el largo de cada una de estas palabras es 4 bits por muestra quantizada. En laFig. 3.12(b), cada 1 binario es representado por un pulso de duracion T ′ y cada cero binario esrepresentado por la ausencia de dicho pulso; ası, una secuencia de pulsos electricos teniendo elpatron mostrado en esta figura puede ser usado para transmitir la informacion de cada streamde bits PCM, y, por lo tanto, la informacion de las muestras cuantizadas del mensaje.

En el receptor, se debe realizar una determinacion de la presencia o ausencia de un pulso porcada unidad de tiempo T . Como se vera mas adelante, la probabilidad de detectar correctamentela presencia de un pulso es una funcion de la energıa de dicho pulso (es decir, del area bajo elpulso); entonces es una ventaja hacer el pulso tan ancho como sea posible. Si dicho pulso seincrementa al maximo posible, vale decir a la duracion del bit, T , entonces se obtiene la formade onda dada en la Fig. 3.12(c). En vez de ser descrita como una ausencia-presencia de pulsos

57

Page 63: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

(a) Secuencia PCM

(b) Representacion pulsatil de PCM

(c) PCM mediante transiciones entre dos niveles

Fig. 3.12: Ejemplos de representacion para digitos binarios en PCM

–a diferencia de la forma de onda anterior– esta forma de onda puede ser descrita como unasecuencia de transiciones entre dos niveles: cuando se ocupa el valor mas alto de voltaje se estarepresentando un 1 binario y cuando se utiliza el mas bajo se representa un cero.

En la Fig. 3.13 se ilustran las formas de onda mas utilizadas en PCM, las que puedenclasificarse en los siguientes grupos:

Sin retorno a cero (NRZ). El grupo NRZ es probablemente el grupo mas utilizado en modu-lacion PCM. Puede ser subdividido en: NRZ por nivel (NRZ-L), NRZ por marca (NRZ-M)y NRZ por espacio (NRZ-S). NRZ-L es usado extensamente en logica digital. Un uno dig-ital es representado por un nivel y un cero por otro nivel, por lo que habra un cambioya sea que se pase de uno a cero o de cero a uno. Con NRZ-M, el uno (o marca) esrepresentado con un cambio de nivel, y el cero (o espacio) es representado sin un cambiode nivel. Esto comunmente es conocido como codificacion diferencial y es utilizado prin-cipalmente en grabaciones en cintas magneticas. En el caso de NRZ-S se realiza la accioncomplementaria de NRZ-M: el uno se representa sin cambios y el cero por un cambio enel nivel.

Con retorno a cero (RZ). Las formas de onda con retorno a cero consisten en la unipolar-RZ, la bipolar-RZ y RZ-AMI. Todas estas alternitivas se utilizan en transmision en bandabase y grabacion magnetica. En la unipolar-RZ, el uno es representado por un pulso deun ancho igual a la mitad del tiempo que dura un bit, y el cero se representa por laausencia de tal pulso. Con la bipolar-RZ, los unos y ceros se representan por pulsos en

58

Page 64: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Fig. 3.13: Formas de onda mas comunes utilizadas en la modulacion PCM

niveles opuestos con una duracion de la mitad del tiempo disponible por bit, por lo queexiste un pulso presente en cada intervalo de bit. El caso de RZ-AMI recibe su nombrede inversion alternada de marca (alternate mark inversion, AMI) y es un esquema decodificacion usado principalmente en sistemas de telemetrıa. Los unos son representadospor pulsos alternados de igual amplitud y los ceros por la ausencia de pulsos.

Fase codificada. El grupo de fase codificada consiste en bi-fase por nivel (bi-φ-L), mejor cono-cida por codificacion Manchester ; bi-fase por marca (bi-φ-M); bi-fase por espacio (bi-φ-S);y modulacion por retardo (DM), o codificacion Miller. El grupo de fase codificada es us-ado en sistemas de grabacion magnetica, en comunicaciones opticas y en algunos enlacesde telemetrıa satelital. Al trabajar con bi-φ-L, el uno es representado por un pulso de lamitad del ancho disponible, ubicado en la primera mitad del tiempo de duracion; el cero serepresenta por el mismo pulso pero ubicado en la segunda mitad del intervalo del bit. Con

59

Page 65: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

bi-φ-M, ocurre una transicion al comienzo de cada intervalo de bit; el uno es representadopor una segunda transicion en el punto medio del intervalo, y el cero se representa sinrealizar esta transicion media. Para el caso de bi-φ-S tambien se producen transicionesal comienzo de cada intervalo, sin embargo el uno se representa sin transicion media y elcero se hace mediante una transicion en el punto medio del intervalo. En la modulacionpor retardo, el uno se representa por una transicion en el punto medio del intervalo; elcero es representado sin transicion a menos que sea seguido por otro cero, caso en el cualse incluye una transicion al final del intervalo del primer cero.

La razon por la que existen tantas formas de onda posibles para realizar la transmision dedatos PCM es que cada una de estas formas de onda tiene un desempeno caracterıstico para unaaplicacion en particular. Al momento de elegir el esquema de codificacion para esta aplicacion,los parametros que deben examinarse son los siguientes:

• Componente DC. Al eliminar la componente DC de la PSD de la senal puede originarproblemas en sistemas con alta sensibilidad a las bajas frecuencias, por lo que se puedeperder informacion de baja frecuencia.

• Autosincronizacion. En cualquier sistema de comunicacion digital se requiere sicronizacionpor sımbolo o por bit. Algunos codigos PCM tienen una sincronizacion inherente o car-acterısticas de sincronizacion que ayudan en la recuperacion del reloj de la senal. Porejemplo, el codigo Manchester tiene una transicion en el medio de cada intervalo ya seaque se envio un cero o un uno, lo que provee una senal de sincronizacion.

• Deteccion de errores. Algunos esquemas de codificacion proveen los medios de detectarerrores sin introducir bits adicionales para la deteccion de errores.

• Compresion del ancho de banda. Existen esquemas que incrementan la eficiencia del anchode banda ya que permiten una reduccion del ancho de banda requerido por una tasa dedatos dada. Ası, mas informacion es transmitida por unidad de ancho de banda.

• Codificacion diferencial. Realizar la codificacion de alguna forma diferencial es util puespermite invertir la polaridad de las formas de onda codificadas sin afectar la deteccionde datos. Esto es una ventaja en sistemas de comunicacion en donde las formas de ondapueden sufrir inversion.

• Inmunidad al ruido. Las distintas formas de onda de PCM pueden ser caracterizadas porla probabilidad de error versus la razon senal-a-ruido (signal-to-noise ratio, SNR). Algunosde los esquemas son mas inmunes que otros al ruido; por ejemplo, las formas de onda NRZtienen mejor desempeno de error que las formas de onda RZ unipolar.

En definitiva, la forma de onda que es seleccionada para cada aplicacion dependera defactores importantes como la caracterıstica espectral, capacidad de sincronizacion de bit, ca-pacidades de deteccion de errores, inmunidad a la interferencia o al ruido, y costo/complejidadde implementacion.

60

Page 66: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

3.7.2 Tipos de Cuantizadores

Existen tres formas genericas de cuantizadores:

1. Cuantizadores por conteo, que cuentan uno a uno los niveles de cuantizacion.

2. Cuantizadores Seriales, que generan un codigo de palabra bit-a-bit desde el bit mas signi-ficativo (MSB) hasta el menos significativo (LSB).

3. Cuantizadores Paralelos, que generan todos los bits en forma simultanea.

Cuantizadores por Conteo

El cuantizador por conteo basa su funcionamiento en un contador binario capaz de llevar lacuenta desde 0 hasta v bits y en un Sample-and-Hold. El diagrama en bloques de este cuanti-zador se muestra en la Figura 3.14.

Fig. 3.14: Cuantizador por conteo

El generador de rampa comienza a cada punto de muestreo y el contador binario es si-multaneamente iniciado. La salida del bloque S/H corresponde a una salida “tipo escalera”,en donde cada uno de los escalones permanece en el valor muestrado para cada intervalo demuestreo. El tiempo de duracion de la rampa -y por ende del contador binario- es proporcionalal valor de la muestra, pues la pendiente de la rampa permanece constante. Consideando quela frecuencia de reloj es tal, que permite que el contador alcance su maxima cuenta (111. . . 1)para un tiempo de duracion de la rampa correspondiente al maximo valor muestreado, entoncesla cuenta final en el contador correspondera a los niveles de cuantizacion.

Ejemplo 3.4 - Cuantizador por conteo.Considere que se esta disenando un cuantizador por conteo, con un generador de rampa conpendiente 106V/s. La senal de entrada varıa de 0 a 10V y se tiene un contador binario de 4bits. Calcule la frecuencia del reloj para cuantizar una senal de voz.

61

Page 67: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Sol. En general, se puede considerar que la voz alcanza valores maximos cercano a los 3kHz,por lo que trabajamos con una senal de banda limitada. Ası, la frecuencia de muestreo parareconstruccion perfecta debera ser de a lo menos 6kHz, lo que equivale a un periodo de muestreode 1

6ms. Dado que la rampa alcanza los 10V en tmax = 10V

106V/s= 0.01ms < Ts, entonces tenemos

suficiente tiempo para evitar problemas de sobrecarga. El contador debera contar desde 0000hasta 1111 en este tiempo, y dado que se tienen 16 valores posibles, tcount = 0.01ms

16 valores; en otras

palabras, se requiere una fCLK = t−1count = 1.6MHz.

Cuantizadores Serial

El cuantizador serial, divide sucesivamente la entrada en mitades, determinando en que mitadse encuentra dicha entrada. En el primer paso, la entrada se divide a la mitad y se observa sise encuentra en la mitad superior o inferior. El resultado de esta observacion, genera el bit massignificativo del codigo de palabra.

La mitad en la cual se encuentre la muestra, se vuelve a subdividir en 2 regiones y nuevamentese realiza la comparacion, esto genera el siguiente bit. Ası, el proceso se repite tantas veces comobits se utilicen en el encoding.

La Fig. 3.15 muestra un cuantizador serial de 3 bits. Los rombos representan comparadores,que realizan una comparacion de su entrada con un valor fijo, dando una salida si la entradaexcede dicho valor, u otra salida diferente si es menor. Es importante tener en mente que estafigura esta pensada para una senal con valores entre 0 y 1, por lo que en el caso de no tener estacondicion, se requiere una normalizacion previa. De necesitar mas (o menos) bits, los bloquescomparativos pueden ser facilmente agregados (o quitados).

Fig. 3.15: Cuantizador Serial de 3 bits

Para la Fig. 3.15, el bit b1 es el primer bit de la ristra y corresponde al bit mas significativo(most significant bit, MSB), por lo que b3 es el bit menos significativo (least significant bit,LSB).

Ejemplo 3.5 - Cuantizador Serial.Ilustre la operacion del cuantizador serial de la Fig. 3.15 para los valores de entrada de 0.2V y0.8V.Sol. Para 0.2V, la primera comparacion resulta en un NO por respuesta, por lo que b1 = 0.

62

Page 68: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

De la misma forma, la segunda comparacion da un NO, por lo que b2 = 0. Para la terceacomparacion, el resultado es SI, teniendo que b3 = 1. Ası, el codigo para el valor 0.2V es 001.Para los 0.8V, la primera comparacion da un SI por respuesta, por lo que b1 = 1 y se le restan0.5, teniendo 0.3V para la segunda etapa. En esta, el resultado tambien es SI, entonces b2 = 1y la senal es 0.05. La tercera comparacion resulta en NO, por lo que b3 = 0. Entonces el codigopara 0.8V es 110.

Cuantizadores Paralelo

El cuantizador paralelo es el cuantizador mas rapido pues genera todos los bits del codigo depalabra en forma simultanea. Lamantablemente resulta ser el mas complejo de todos, ya querequiere un gran numero de comparadores –por ejemplo, para M -niveles de comparacion, serequieren M − 1 comparadores–. Ademas, se necesita un codificador de M = 2v entradas y vsalidas, que a pesar de ser un simple circuito combinacional, agrega complejidad y retardo albloque total.

La Fig. 3.16 muestra un diagrama de bloques de un cuantizador paralelo de 3 bits. El bloquemarcado como “Codificador” toma la salida de los 7 comparadores y genera el numero binariocorrespondiente. Por ejemplo para un valor de senal superior a 7

8V, todos los comparadores

tendran sus salidas en “1” (SI). El codificador debera entonces generar el codigo 111.

Fig. 3.16: Cuantizador Paralelo de 3 bits

Dadas las condiciones del problema, el diseno del “Codificador” es muy sencilla, pues solo 8de los 128 (28) opciones posibles de entrada se utilizan: una senal no podra ser mayor que unvalor, pero menor que otro nivel inferior.

Mientras que los cuantizadores seriales toman ventaja de la estructura de los numeros bina-rios cuando se cuentan en secuencia, el cuantizador paralelo no requiere dicha estructura. Dehecho, el codigo para regiones de cuantizacion puede ser asignado de cualquier forma que resultecomoda y util para la aplicacion particular. Un problema con la asignacion secuencial es quela transmision de errores en los bits genera errores de reconstruccion no-uniforme, y particular-

63

Page 69: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

mente si dicho error se produce en el MSB. Por esto, es preferible que en muchos casos se utiliceel codigo Gray, en donde solo se produce un cambio de estado por cada una de las salidas.

3.7.3 PCM Diferencial

Como se discutio anteriormente, en un sistema PCM, luego de muestrear la senal de informacion,cada muestra es cuantizada independientemente usando un cuantizador escalar. Esto significaque la muestra anterior no tiene ningun efecto sobre la cuantizacion de las muestras nuevas. Sinembargo, cuando un proceso aleatorio de banda limitada es muestreado a una frecuencia igualo superior a la de Nyquist, los valores de las muestras son variables aleatorias correlacionadas1.Esto significa que en la gran mayorıa de los casos, las muestras anteriores dan algun tipode informacion acerca de las venideras; informacion que puede ser utilizada para mejorar eldesempeno de un sistema PCM. Por ejemplo, si la muestra anterior tenıa un valor pequenoexiste una alta probabilidad de que el valor de la siguiente muestra sea tambien pequeno, porlo que no es necesario cuantizado un alto rango de valores para tener un buen desempeno.

En la forma mas sencilla de implementar esta modulacion PCM diferencial (DPCM), secuantizan las diferencias entre dos muestras adyacentes Xk−Xk−1. Dado que estas dos muestrasadyacentes estan altamente correlacionadas, su diferencia tiene variaciones pequenas; por lotanto, para lograr un cierto nivel de performance, solo se requieren unos pocos niveles (y porende, unos pocos bits) en la cuantizacion. En palabras simples, DPCM logra un determinadodesempeno a una tasa de bits menor que lo que necesitarıa PCM.

En la Fig.(Hecha en clases) se muestra una forma de realizar DPCM de una manera simple.Como se puede observar en dicha figura, la entrada en el cuantizador no es Xk −Xk−1 sino queYk = Xk − Y ′k−1, en donde Y ′k−1 es una variable altamente relacionada con Xk−1 como se vera acontinuacion. La ventaja de la utilizacion de esta nueva variable es que previene la acumulacionde ruido de cuantizacion. La entrada del cuantizador, Yk se cuantiza en forma escalar (uniformeo no uniforme) para generar Yk en base a las relaciones

Yk = Xk − Y ′k−1 , (3.14)

Y ′k = Yk + Y ′k−1 . (3.15)

El error de cuantizacion entre la entrada y salida del cuantizador estara determinada por

Yk − Yk = Yk − (Xk − Y ′k−1)

= Yk −Xk + Y ′k−1

= Y ′k −Xk (3.16)

La salida del receptor esta dada por la relacion

Xk = Yn + Xk−1 . (3.17)

Comparando las Ecuaciones (3.15) y (3.17) se puede ver que Y ′k y Xk satisfacen la mismaecuacion de diferencias con la misma funcion de exitacion, Yk. Por lo tanto, si las condiciones

1La unica excepcion a esto se produce cuando el espectro del proceso es plano dentro de su ancho de banda.

64

Page 70: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

inciales de Y ′k y Xk son elegidas iguales, estas tambien seran iguales para todo tiempo k. Enefecto, al juntar ambas ecuaciones se obtiene la relacion Xk = Y ′k − Y ′k−1 + Xk−1 por lo que al

fijar, por ejemplo, Y ′−1 = X−1 = 0 se tiene:

X0 = Y ′0 − Y ′−1 + X−1 = Y ′0

X1 = Y ′1 − Y ′0 + X0 = Y ′1...

Xk = Y ′k − Y ′k−1 + Xk−1 = Y ′k .

Reemplazando este resultado en la Ecuacion (3.16) se obtiene que el ruido de cuantizacion queestaba dado por Yk − Yk cumple la relacion

Yk − Yk = Xk −Xk . (3.18)

Esto demuestra que el error de cuantizacion que existe entre la muestra Xk y su replicaen el receptor Xk es la misma que el error de cuantizacion entre la entrada y la salida delcuantizador. Sin embargo, el rango de variacion que normalmente presenta Yk es mucho menorque el presentado por Xk, por lo que Yk se cuantiza con menos bits.

3.8 Modulacion Delta

De acuerdo a lo estudiado de PCM, el codigo binario resultante debe ser capaz de proveer unamedida de la muestra dentro de todo el rango dinamico de la senal. Por ejemplo, al trabajar consenales en un rango -5V a +5V, el codigo digital debe ser capaz de indicar muestras sobre unrango de 10V. Ademas, el ruido de cuantizacion resultante es proporcional al rango dinamicode los datos originales por lo que rangos menores son siempre preferibles. Por ende, si dealguna forma se pudiese reducir el rango dinamico de los numeros que se tratan de comunicar,el performance frente al ruido se mejorarıa tambien. La Modulacion Delta es una tecnicasencilla para realizar esta tarea. En vez de enviar el valor de cada una de las muestras, se enviala diferencia entre la muestra y el valor previo. Si el muestreo se esta realizando a la frecuenciade Nyquist, esta diferencia tiene un rango dinamico igual al de las muestras originales, por loque cada muestra es independiente de la anterior. En caso contrario, al muestrear a frecuenciassuperiores a la de Nyquist, las muestras resultan ser dependientes entre ellas, por lo que el rangodinamico de la diferencia entre 2 muestras puede ser menor que el de las muestras como tales.Ası, al aumentar la frecuencia de muestreo se logra una reduccion en el rango dinamico, por loque se puede enviar la misma informacion usando una menor cantidad de digitos binarios parael mismo ruido de cuantizacion. Dado esto, se lograrıa una mejora en la transmision.

En otras palabras, la modulacion delta es una tecnica de conversion analogo-digital usadapara la transmision de informacion en la cual la calidad de las senales no es de vital importancia,permitiendo realizar una reduccion del rango dinamico. Por lo mismo, su utilidad principal escon senales de voz. Esta modulacion reduce el proceso de cuantizacion a 1 bit. Por ejemplo un“1” representa una diferencia positiva y un “0” una diferencia negativa. Esto a su vez involucraque solo se trabaja con 2 niveles de codificacion, a los que se referenciara como +∆ o −∆. Enterminos generales, la senal solo podra aumentar o disminuir en ∆ unidades.

Sus principales caracterısticas en la generacion de la ristra de bits son:

65

Page 71: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

1. La senal analoga es aproximada en una serie de segmentos.

2. Cada segmento de la senal aproximada, es comparada con la senal original para determinaraumento o disminucion en la ampliud relativa.

3. Los bits sucesivos se determinan conforme a esta comparacion.

4. Solo el cambio de informacion es enviada. Esto quiere decir que solo se realiza un cambiodel estado anterior si la senal de entrada decrece o aumenta, ya que una condicion deno-cambio involucra la continuidad del “0” o “1” de la muestra anterior.

La Fig. 3.17 muestra una senal analoga y la aproximacion mediante Modulacion Delta. Dadoque la cuantizacion solo se puede incrementar o decrementar en ∆ en cada punto de muestreo,se trata de realizar la aproximacion a la senal original mediante una senal “tipo escalera”.

Fig. 3.17: Forma de onda analoga (rojo) y su aproximacion en la Modulacion Delta (azul).

Como se dijo con anterioridad, se realiza la comparacion entre ambas senales: si la escaleraesta bajo la muestra de la senal analoga, entonces se debe incrementar positivamente en unaunidad; si se encuentre sobre la muestra de la senal, entonces se debe decrementar en unaunidad. Asumiendo que se realiza la asociacion de que los incrementos valen “1”, la ristra debits para la figura, esta dada por:

111111111000000011111111111000 · · ·

Ası, se tiene que la implementacion de la modulacion Delta es realmente sencilla, pues estacompuesta por un comparador y un generador de senal escalera, como se muestra en la Fig. 3.18.

Resulta evidente que existe una clara dependencia entre la calidad de la codificacion con elvalor del incremento ∆. De hecho, para usar efectivamente la modulacion delta se debe realizaruna eleccion inteligente de dos parametros: valor del incremento, ∆, y tasa de muestreo, Ts. Laeleccion debe ser realizada de tal forma que la senal escalera sea una buena aproximacion de lasenal analoga original. Dado que la senal tiene una frecuencia maxima conocida, entonces se

66

Page 72: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

Fig. 3.18: Diagrama de Bloques de un conversor Delta A/D

sabe a la maxima tasa a la cual esta puede cambiar, lo que permite elegir apropiadamente unabuena frecuencia de muestreo. Ahora bien, si el paso es demasiado pequeno, se experimentael problema de sobrecarga de pendiente en donde la escalera no es capaz de seguir los rapidoscambios que presenta la senal analoga. Este problema se muestra en la Fig. 3.19(a). Por otraparte, si el paso es demasiado grande se tendran considerables sobrepasos durante periodosen los que la senal se mantiene practicamente constante. Para este caso, se tiene un ruidode cuantizacion muy grande, y se conoce como Ruido Granular. Este problema se puedeobservar en la Fig. 3.19(b). El resultado de una buena eleccion del parametro de incrementopara el mismo tiempo de muestreo se puede observar en la Fig. 3.19(c), en donde se observaque la senal escalera sigue bien a la original y se puede considerar una buena aproximacion.

3.8.1 Modulacion Delta Adaptiva

La modulacion delta adaptiva es un esquema en el cual se permite un ajuste del valor deincremento dependiendo de las caracterısticas de la senal analoga. Es, por supuesto, de caractercrıtico que el receptor sea capaz de adaptar el valor de los pasos exactamente de la mismaforma en que lo hace el transmisor, ya que si no se da esta situacion, nunca se podra hacer unabuena recuperacion de la senal original cuantizada (funcion tipo escalera). Dado que todo estransmitido a traves de una serie de dıgitos binarios, el tamano del paso debe ser derivado dedicho tren de bits.

Si un string de bits de largo dado contiene un numero casi igual de ceros y unos, se puedeasumir que la escalera esta oscilando en torno a una senal analoga de variacion muy lenta; eneste caso, se podrıa reducir el tamano del paso. Por otra parte, un exceso de ceros o unos dentrodel string de bits podrıa indicar que la escalera esta tratando de alcanzar la funcion; en estecaso, se podrıa incrementar el tamano del paso. En una implementacion el control del tamanodel paso se obtiene por un integrador digital, que suma los bits sobre un periodo fijo. Si la sumase desvıa de aquella que corresponde a un numero igual de ceros y unos, entonces se realiza lamodificacion del tamano del paso.

Existen muchos algoritmos de modulacion delta adaptiva que son mas sencillos de imple-mentar que el discutido arriba. Por ejemplo dos implementaciones son el algoritmo song y elalgoritmo space shuttle.

El algoritmo song compara el bit transmitido con el anterior; si son iguales el paso se

67

Page 73: Apuntes de Comunicaciones Digitales

CAPITULO 3. MODULACION EN BANDA BASE

(a) Pasos muy pequenos (b) Pasos muy grandes

(c) Eleccion Optima

Fig. 3.19: Consecuencias de una buena o mala eleccion del valor del incremento ∆.

incrementa en una cantidad fija, ∆. Si los dos bits son difentes entonces el paso de disminuyeen la misma cantidad fija, ∆. Ası el tamano del paso esta siempre cambiando y puede crecer ycrecer sin lımite si es necesario. Un caso extremo de esta implementacion es cuando se quiereseguir una funcion escalon, ya que al alcanzar la senal, se debe volver en cantidades fijas por loque existe una pequena oscilacion en torno al valor maximo. Ası, si se espera que una funciontenga varios cambios abruptos, entonces dicha oscilacion del algortimo song puede resultarproblematica.

El algoritmo space shuttle es una modificacion del algoritmo song y busca eliminar dichasoscilaciones. Al igual que antes, cuando dos bits son iguales, se realiza el incremento en el valorfijo, ∆. Sin embargo, cuando los bits son distintos, el tamano del paso se reinicia inmediatamentea su mınimo valor, que tambien es ∆. Resulta de interes entonces, notar de que este algoritmose ajustara mejor en casos de tener una funcion escalon.

68

Page 74: Apuntes de Comunicaciones Digitales

Capıtulo 4

Modulaciones Digitales Pasabanda

4.1 Introduccion

La modulacion pasabanda de senales tanto analogas como digitales es un proceso por el cualuna senal de informacion es contenida en una forma sinusoidal que sea capaz de transmitirse enun canal con respuesta pasabanda. Para el caso de las modulaciones digitales, estos sinusoidesde duracion T son referidos como sımbolos digitales. Ası, el modulador en un sistema decomunicacion digital, mapea las secuencias de dıgitos binarios en sus correspondientes formasde onda para ser transmitidos en un canal pasabanda.

Como se estudio en cursos anteriores, una senal sinusoidal tiene tres parametros que iden-tifican una senal de otra: amplitud, frecuencia y fase. Ası, la modulacion pasabanda se puededefinir como el proceso por el cual la amplitud, la frecuencia o la fase de una senal portadora,o una combinacion de ellos, es variada conforme con la informacion que quiere ser transmitida.

La forma general de una senal portadora esta determinada por

s(t) = A(t) cos[ωct+ φ(t)]

en donde A(t) es la amplitud variante en el tiempo, ωc = 2πfc es la frecuencia angular de laportadora, y φ(t) es la fase.

Los tipos basicos de modulacion y demodulacion digitales se muestra en la Tabla 4.1. Cuandoel receptor explota cierto conocimiento de la fase de la portadora para realizar el proceso dedeteccion de la senal, se habla de deteccion coherente; por otro lado, si no se utiliza ese tipo deinformacion, el proceso es llamado deteccion no-coherente. Bajo el alero de comunicacionescon deteccion coherente, en la columna izquierda de la Tabla 4.1 se listan Phase Shift Keying(PSK), Frecuency Shift Keying (FSK), Amplitude Shift Keying (ASK), Modulacion de FaseContinua (CPM) y combinaciones hıbridas. La demodulacion no-coherente se refiere a sistemasque emplean demoduladores que estan disenados para operar sin conocimiento de la fase dela senal de entrada, por lo que no se requiere estimacion de la fase. Ası, la ventaja de unsistema no-coherente frente a uno coherente es su menor complejidad, pero al precio de tener unaprobabilidad de error mayor. En la columna derecha de la Tabla 4.1 se listan las demodulacionesno-coherentes: DPSK y versiones de FSK, ASK, CPM e hıbridos que son similares a las listadasen la columna de coherentes. Resulta interesante decir que la deteccion de DPSK se realizamediante la informacion de la fase del sımbolo anterior, lo que da origen a su nombre.

69

Page 75: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Tabla 4.1: Modulaciones Digitales Pasabanda BasicasDeteccion Coherente Deteccion No-CoherentePhase shift keying (PSK) Differential shift keying (DPSK)Frecuency shift keying (FSK) Frecuency shift keying (FSK)Amplitude shift keying (ASK) Amplitude shift keying (ASK)Continous phase modulation (CPM) Continous phase modulation (CPM)Hıbridos Hıbridos

En general, en comunicaciones digitales, los terminos demodulacion y deteccion son utilizadosindistintamente, sin embargo la demodulacion corresponde a la remocion de la portadora, ydeteccion incluye ademas el proceso de decision de sımbolos. Ası, en un proceso de deteccioncoherente ideal, en el receptor se tiene disponible una replica o prototipo de cada senal posible.Estos prototipos son correlacionado con la senal entrante de manera de detectar concordanciade sımbolos y poder identificar que es lo que el emisor transmitio.

4.2 Senales y Ruido

4.2.1 Ruido en Sistemas de Comunicaciones

La tarea del demodulador o detector es entregar la secuencia de bits correspondiente a la formade onda de la entrada con el menor error posible, sin importar lo alterada que se encuentredicha senal de entrada. Existen dos posibles causas para dicha alteracion de la senal: Elprimero es el efecto de filtrado que experimenta la senal producto del transmisor, de el canaly del receptor. La segunda causa es el ruido producido por distintas fuentes como el ruidogalaxial, el ruido terrestre, el ruido de amplificacion y senales no deseadas de otras fuentes. Unacausa de error que resulta imposible de dejar de lado es el movimiento aleatorio y termico delos electrones en cualquier medio de conduccion. Este movimiento produce el conocido ruidotermico en amplificadores y circuitos, corrompiendo la senal en una forma aditiva; esto quieredecir, que la senal recibida r(t), es la suma de una senal transmitida, s(t), y el ruido termicon(t). Las estadısticas del ruido termico se han desarrollado usando mecanica cuantica y estanbien descritos1.

La caracterıstica estadıstica primaria del ruido termico es que su amplitud esta distribuıdade acuerdo a una distribucion Gaussiana de media cero; es decir la funcion de densidad deprobabilidades (pdf) esta determinada por

p(n) =1√

2πσ2exp

[− n2

2σ2

], (4.1)

en donde σ2 es la varianza del ruido. La distribucion Gaussiana es comunmente utilizada comomodelo del ruido de un sistema por el teorema del lımite central. Este teorema establece que,bajo condiciones muy generales, la distribucion de probabilidades de la suma de k variables

1Nyquist, H., “Thermal Agitation of Electric Charge in Conductors”, Phys. Rev., vol 32, Julio de 1928, pp110-113

70

Page 76: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

aleatorias estadısticamente independientes se aproxima a una distribucion Gaussiana a medidaque k →∞, sin importar la distribucion individual de cada variable. Por lo tanto, aun cuandomecanısmos individuales puedan tener distribuciones diferentes a la Gaussiana, el conjunto detodos aquellos mecanısmos tendera igualmente a una distribucion Gaussiana.

La caracterıstica espectral primaria del ruido termico es que su densidad espectral de poten-cia bilateral, ρn(f) es plana para todas las frecuencias de interes para sistemas de comunicacionpor radio, hasta una frecuencia alrededor de los 1012[Hz], luego

ρn(f) =N0

2,

en donde el factor de 2 es incluıdo para indicar que ρn(f) es una PSD bilateral. Dado que sudensidad espectral de potencia es constante, se refiere al ruido termico como un ruido blanco.

La funcion de autocorrelacion del ruido blanco, esta determinada por la transformada inversade Fourier de la PSD, luego

Rn(τ) = F−1 [ρn(f)] =N0

2δ(τ) .

Ası, como la funcion de autocorrelacion es nula para τ 6= 0, se puede concluir que sin importarcuan cerca en el tiempo esten dos muestras tomadas, ellas siempre seran no-correlacionadas.

La potencia promedio del ruido blanco, Pn, es infinita pues su ancho de banda es infinito.A pesar de que el ruido blanco es una abstraccion util, ningun proceso de ruido puede serrealmente blanco; sin embargo en muchısimos sistemas se puede asumir que el ruido presentepuede ser aproximadamente blanco, ya que su espectro es practicamente constante en el rangode frecuencias de interes. Ademas, como el ruido termico esta presente en todos los sistemasde comunicaciones y es la fuente de ruido predominante en la mayorıa de los sistemas, lascaracterısticas del ruido blanco (aditivo, blanco y Gaussiano) se utilizan para modelar el ruidoen el proceso de deteccion y en el diseno de receptores optimos.

Por ende, el modelo matematico que se utiliza para representar los efectos del ruido en unasenal transmitida por un canal pasabanda esta determinada por la relacion

r(t) = si(t) + n(t) . (4.2)

Sin embargo, un modelo mas descriptivo incluirıa las modificaciones dadas por la respuestaespectral del canal, hc(t), que se reflejarıan como la convolucion entre si(t) y dicha respuesta.Como resultado de esta consideracion se tendra una entrada en el receptor dado por la relacionr(t) = si(t) ∗ hc(t) + n(t). En este curso se obviaran las modificaciones producidas por el canalcon la base de que –en la mayorıa de los casos– esta respuesta es conocida.

4.2.2 Representacion Geometrica de Senales

Se sabe con anterioridad de que una base de un espacio tiene que cumplir dos condiciones: quesus elementos sean linealmente independientes y a su vez que generen de alguna forma dichoespacio. Ası, se estudio en el curso de algebra lineal que el conjunto (1, 0, 0), (0, 1, 0), (0, 0, 1)correspondıa a la base canonica de R3 y que en general cualquier conjunto ordenado de n-uplase1, e2, . . . , en donde ei es uno en la i-esima posicion y cero en el resto, es la base canonica deRn. Adicionalmente se obtuvo que las funciones2 tambien poseen un conjunto base, tal como

2Funciones en matematica, senales en ingenierıa.

71

Page 77: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

se ve en el siguiente ejemplo.

Ejemplo 4.1 - Base de senales.Determine si el conjunto 1, t, t2 corresponde a una base de los polinomios de orden menor oigual a dos con coeficientes reales.Sol. Se puede observar que el conjunto dado genera a cualquier polinomio de la forma a+bt+ct2.Ademas no existe ninguna combinacion lineal que relacione algun elemento del conjunto consus pares, por lo que son linealmente independientes. Entonces, refiriendose a la definicion, elconjunto dado si corresponde a una base.

Procedimiento de Gram-Schmidt

Suponga que tiene un set de senales con energıa finita si(t) , i = 1, 2, . . . ,M, del cualquiere encontrar su base; es decir quiere encontrar un set ortonormal de senales, ψj(t) , j =1, 2, . . . , N, en base al set original. El procedimiento de Gram-Schmidt permite realizar dichalabor mediante pasos simples y faciles de seguir: Se comienza la primera forma de onda s1(t)con energıa E1; la primera senal ortonormal simplemente se construye mediante la relacion

ψ1(t) =1√E1

s1(t) .

La segunda senal ortonormal se construye desde s2(t), proyectando ψ1(t) sobre ella mediante

a21 =

∫ ∞−∞

s2(t)ψ1(t) ,

para luego aplicar la relacionψ′2(t) = s2(t)− a21ψ1(t) .

Esta senal es ortogonal a ψ1(t) pero no necesariamente tendra energıa unitaria por lo que senormaliza por su energıa E2 para tener

ψ2(t) =ψ′2(t)√E2

.

Generalizando el procedimiento, se puede obtener que la ortogonalizacion de la l-esimafuncion esta determinada por

ψl(t) =1√El

ψ′l(t) , (4.3)

en donde

ψ′l(t) = sl(t)−l−1∑j=1

aljψj(t) . (4.4)

Entonces, defınase un espacio ortogonal N -dimensional como un espacio caracterizado porun set de N funciones linealmente independientes, ψj(t), j = 1, 2, . . . , N , llamadas funciones

72

Page 78: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

base. Las funciones base satisfacen las siguientes condiciones∫ T

0

ψj(t)ψk(t) dt = Kj δjk ,0 ≤ t ≤ Tj, k = 1, 2, . . . , N

, (4.5)

siendo δjk(t) el operador conocido como Funcion Delta de Kronecker, y que esta definido por

δjk =

1 , j = k0 , i.o.c.

. (4.6)

Cuando las constantes Kj son distintas de cero, el espacio de senales es llamado ortogonal.Cuando las funciones estan normalizadas de forma que cada Kj = 1, entonces el espacio esllamado ortonormal. El proceso de ortogonalidad se puede entender que cualquier funcion ψj(t)debe ser mutuamente perpendicular a cada una de las otras ψk(t), con k 6= j.

Conforme al procedimiento anteriormente explicado, se puede demostrar que cualquier setde senales si(t), i = 1, 2, . . . ,M , en donde cada miembro del set puede ser fisicamente real-izable y de una duracion T , puede ser expresada como una combinacion lineal de N funcionesortogonales, ψ1(t), ψ2(t), . . . , ψN(t), con N ≤M , vale decir

si(t) =N∑j=1

aijψj(t),i = 1, 2, . . . ,MN ≤M

, (4.7)

en donde

aij =1

Kj

∫ T

0

si(t)ψj(t) dt,i = 1, 2, . . . ,Mj = 1, 2, . . . , N0 ≤ t ≤ T

. (4.8)

Ejemplo 4.2 - Ortogonalizacion de Gram-Schmidt.Considere las senales dadas por

s1(t) =

1 , t ∈ [0, 2]0 , i.o.c.

, s2(t) =

1 , t ∈ [0, 1]−1 , t ∈]1, 2]0 , i.o.c.

, s3(t) =

1 , t ∈ [0, 2]−1 , i.o.c.

, s4(t) = −1 ,

todas de duracion T = 3. Se pide ortonormalizar el set de senales.Sol. La primera senal ortonormal esta siempre determinada por la normalizacion de la senaloriginal, por lo tanto ψ1(t) = s1(t)√

E1= s1(t)√

2. El coeficiente necesario para la segunda senal

ortonormal se calcula mediante a21 =∫ T

0s2(t)ψ1(t) dt = 0, por lo tanto ψ2(t) = s2(t)√

2. Para

la tercera senal se calcula a31 =√

2 y a32 = 0, luego ψ′3(t) = s3(t) − a31ψ1(t) − a32ψ2(t) =s3(t) − s1(t). Como esta senal resultante tiene energıa unitaria, no se requiere dividir por laenergıa de la senal, por lo tanto ψ3(t) = s3(t) − s1(t). Similarmente, se obtiene a41 = −

√2,

a42 = 0 y a43 = 1, luego ψ′4(t) = s4(t) +√

2ψ1(t)− ψ3(t) = 0. Este resultado implica que s4(t)es una combinacion lineal de ψ1(t) y ψ3(t), por lo que ψ4(t) = 0.

Dado que, para un set fijo de senales las funciones base seran las mismas, el set completosi(t) puede ser visto como un set de vectores si = ai1, ai2, . . . , aiN, ya que cada senal

73

Page 79: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

transmitida estara completamente determinado por dicho vector de coeficientes. Estos se cono-cen como las coordenadas de la senal en dicha base. En sımbolos

si = [ai1, ai2, . . . , aiN ] , i = 1, 2, . . . ,M . (4.9)

La razon principal de enfocar el estudio en el espacio ortogonal de funciones, es por que lasmedidas de las distancias Euclidianas –que resultan fundamentales en el proceso de deteccion–son formuladas de manera mas sencilla en dicho espacio. Lo importante es que con lo vistoanteriormente, cualquier set de senales se puede llevar a un esquema de senales ortogonalesutilizando el procedimiento de ortogonalizacion de Gram-Schmidt.

Energıa de Senales

La energıa Ei que posee cada senal si(t), sobre el intervalo del sımbolo T , se puede obtener enfuncion de las componentes ortogonales de si(t). En efecto:

Ei ,∫ T

0

s2i (t) dt =

∫ T

0

[∑j

aijψj(t)

]2

dt

=

∫ T

0

∑j

aijψj(t)∑k

aikψk(t) dt

=∑j

∑k

aijaik

∫ T

0

ψj(t)ψk(t) dt

=∑j

∑k

aijaik Kjδjk

Ei =∑j

a2ijKj i = 1, 2, . . . ,M . (4.10)

La Ecuacion (4.10) es un caso especial del teorema de Parseval, que relaciona la integral delcuadrado de una forma de onda, con la suma del cuadrado de coeficientes ortogonales. Comoen la mayorıa de los casos se trabaja con bases ortonormales, el calculo de la energıa se limitaa la sumataria del cuadrado de los coeficientes ortonormales.

Representacion del Ruido Blanco

Utilizando como base el set de senales ψj, el ruido Gaussiano blanco aditivo (AWGN) tambienpuede ser representado como una combinacion lineal de ellas, de la misma forma en que serepresentan las senales si(t). Sin embargo, como el ruido no tiene inferencia en la obtencionde las senales base, no necesariamente podra ser completamente representado por dicha base.Esto quiere decir que existira una parte del ruido que caera dentro del espacio de senales generadopor ψj y otra parte que no. Por lo mismo es conveniente definir

n(t) = n(t) + n(t) , (4.11)

en donde n(t) es la componente del ruido que cae dentro del espacio de senales y n(t) aquellaparte que cae fuera. Decir que una parte del ruido cae dentro del espacio de senales equivale a

74

Page 80: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

decir que corresponde a la proyeccion del ruido en las coordenadas de senales ψ1(t),. . . ,ψN(t).Entonces, n(t) esta determinada por la relacion:

n(t) =N∑j=1

njψj(t) ,

y, por ende, n(t) = n(t)− n(t) sera el ruido fuera del espacio de senales. Se puede inferir de loexplicado anteriormente que la relacion entre el ruido vestigial y las senales base esta dado por∫ T

0n(t)ψj(t) dt = 0.Dado que n(t) es un proceso aleatorio Gaussiano con media nula, entonces las componentes

de ruido nj tambien son Gaussianas de media nula. En efecto

E nj = E

1

Kj

∫ T

0

n(t)ψj(t) dt

=

1

Kj

∫ T

0

E n(t)ψj(t) dt = 0 ,

para todo j.Ademas, estas componentes no estan mutuamente correlacionadas lo que se puede demostrar

calculando la covarianza

E nj nk = E

1

Kj

1

Kk

∫ T

0

∫ T

0

n(t)n(τ)ψj(t)ψk(τ) dt dτ

=

1

Kj

1

Kk

∫ T

0

∫ T

0

E n(t)n(τ)ψj(t)ψk(τ) dt dτ

=N0

2δjk .

En resumen, las N componentes del ruido son variables aleatorias Gaussianas de media cero yno correlacionadas con varianza comun dada por N0

2.

Como se demostrara mas adelante, al utilizar un esquema de correlacionador en la deteccionde senales, el remanente de ruido, n(t), es rechazado efectivamente por el detector en sı; entonces,n(t) sera el ruido que afectara directamente el proceso de deteccion. Por lo tanto, de ahora enadelante la porcion de ruido n(t) sera referenciado simplemente como n(t), y se podra representarmediente su vector de coeficientes de forma similar a lo que se dijo para las senales, luego

n = [n1, n2, . . . , nN ] , (4.12)

en donde n es un vector aleatorio con media cero y distribucion Gaussiana, en la que lascomponentes nj, j = 1, . . . , N son independientes.

Ası, la senal recibida a la entrada del detector tambien podra representarse mediante unvector r de la forma r = si + n. El problema tıpico de la deteccion se ve convenientementeen termino de estos vectores como se muestra en la Fig. 4.1. Los vectores sj y sk representanprototipos o senales de referencia pertenecientes al set de M senales si(t). El receptor sabe,a priori, la ubicacion de cada una de estos prototipos en el espacio de senales. Durante latransmision de cualquiera de estas senales, estas se perturban por el ruido generando una difusionen torno a la posicion original; por lo mismo el vector resultante corresponde a una version

75

Page 81: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.1: Senal y ruido en un espacio de senales tridimensional

perturbada de las senales originales (es decir sj + n o sk + n). Dado que el ruido es aditivoy Gaussiano, la posible senal recibida se enmarca dentro de una “nube” de puntos en torno alos puntos sj y sk. Dicha nube es densa en el centro y se esparce al ir aumentando la distanciadel prototipo, manteniendo la forma de una distribucion Gaussiana. El vector marcado comor corresponde a un vector de senal que puede llegar al receptor durante algun intervalo detiempo. La tarea del receptor sera entonces decidir cual de las dos senales prototipo tienemas “semejanza” con esta senal recibida. Una forma de medir esta similitud es mediante ladistancia que existe entre cada uno de estos vectores. Mas adelante se estudiara la forma enque este concepto de distancia se aplica para elegir la forma de onda mas parecida a la recibida,permitiendo decidir si el vector entrante pertenece a la misma clase que su vecino mas cercano(vector prototipo mas cercano).

4.3 Tecnicas de Modulacion Digital Pasabanda

Al transmitir informacion digital sobre un canal de comunicacion, el modulador es quien mapeala informacion digital en formas de onda analogas que cuadren con las carecterısticas del canal.Generalmente, este mapeo es realizado tomando bloques de v = log2M digitos binarios a lavez de la secuencia de informacion xk, y seleccionando una de las M = 2v formas de ondasi(t) , i = 1, 2, . . . ,M, que tienen energıa finita y son determinısticas. Cuando este mapeose realiza asociando cada forma de onda con la que se transmitio en forma previa, se hablaque el modulador tiene memoria. En caso contrario se habla de modulacion sin memoria. Enparticular en este capıtulo se estudiaran modulaciones sin memoria en las que se modificanamplitud (ASK), fase (FSK, PSK) o ambas (QAM, APK). En todos los casos se asume quela secuencia de digitos binarios en la entrada del modulador llega a una tasa de R bits porsegundo.

76

Page 82: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

4.3.1 Amplitude Shift Keying (ASK)

La modulacion digital en amplitud ASK tiene una expresion analıtica dada por:

si(t) =

√2Ei(t)

Tcos(ωct+ φ), i = 1, 2, . . . ,M (4.13)

en donde T es el tiempo de duracion del sımbolo a enviar, por lo que 0 ≤ t ≤ T . El terminode amplitud

√2Ei(t)/T tendra M posibles valores discretos y la fase, φ, es una constante

arbitraria.Notese que el termino Ei(t) representa la energıa de la senal. En efecto, al considerar que

la potencia de una sinusoidal esta dada por A2/2, entonces se tiene Pcos = Ei(t)/T . Se utilizaesta notacion, pues la energıa es el parametro clave al momento de determinar el performancede error del proceso de deteccion.

En el caso particular de elegir un valor de M = 2, se tienen dos formas de onda posibles:√2E/T y cero. Dado el resultado de la modulacion ASK binaria, comunmente es referida como

On-Off Keying (OOK). Esta fue una de las primeras modulaciones digitales ya que su principiose utilizaba en comunicaciones con radiotelegrafos.

Esta modulacion no se tratara en mayor detalle, ya que actualmente no es utilizada ensistemas de comunicacion digitales.

4.3.2 Frequency Shift Keying (FSK)

La forma analıtica general para la modulacion FSK esta dada por

si(t) =

√2E

Tcos(ωit+ φ),

i = 1, 2, . . . ,M0 ≤ t ≤ T

(4.14)

en donde el termino de frecuencia, ωi, puede asumir M valores discretos, el termino de fase,φ, es una constante arbitraria. El valor de M es generalmente fijado en potencias de dos queson distintas de cero (2, 4, 8, 16, . . . ). El set de senales esta caracterizado por las coordinadascartesianas, por lo que cada eje mutuamente perpendicular representa un sinusoide con unafrecuencia diferente.

4.3.3 Phase Shift Keying (PSK)

La modulacion en fase, es ampliamente utilizada en comunicaciones comerciales y militares. Suexpresion analıtica general esta determinada por:

si(t) =

√2E

Tcos[ωct+ φi(t)],

i = 1, 2, . . . ,M0 ≤ t ≤ T

(4.15)

en donde el termino de fase asume solo M posibles valores discretos, que en general estan dadospor la forma

φi(t) =2πi

M, i = 1, 2, . . . ,M . (4.16)

77

Page 83: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

El parametro E tambien representa la energıa y T es el tiempo de duracion del sımbolo, al igualque para los casos anteriores.

En las modulaciones PSK binarias, la senal moduladora cambia la fase de las formas deonda, si(t) en dos estados: cero o π, lo que se traduce en un cambio de fase muy abrupto; si lasecuencia de bits moduladores se alterna entre 0 y 1, entonces se tendran cambios abruptos encada transicion.

Los cambios de fase de las senales pueden ser facilmente representados mediante vectoresen un plano polar. El largo del vector corresponde a la amplitud de la senal y la direccion delvector, para una modulacion M -aria, corresponde a la fase de las senales, relativa a las otrasM − 1 senales en el set. Para el caso de BPSK, la representacion se logra mediante dos vectoresseparados en 180o. Las senales que pueden ser representadas con tales vectores opuestos sonllamadas set de senales antipodales.

4.3.4 Amplitude Phase Shift Keying (APK)

Esta modulacion realiza una combinacion de ASK y PSK, de donde se obtiene su nombre (APK).Su forma analıtica general, esta dada por:

si(t) =

√2Ei(t)

Tcos[ωct+ φi(t)],

i = 1, 2, . . . ,M0 ≤ t ≤ T

. (4.17)

La Ecuacion (4.17) ilustra que se realiza una indexacion del termino de la amplitud y de la fase.La forma de onda de una senal APK permite visualizar cambios de amplitud y fase simultaneos.Por ejemplo, si se trabajara con M = 8, entonces cuatro vectores tendrıan una misma amplitud ylos otros cuatro tendrıan una amplitud diferente, con cada uno de los vectores separados en 45o.Cuando un set de M posibles sımbolos en un espacio de senal bidimensional es ubicado en unaconstelacion rectangular, las senales son referidas como una quadrature amplitud modulation(QAM) que se estudiara mas adelante.

Las representaciones vectoriales de cada una de estas tecnicas de modulacion estan carac-terizadas por un plano polar para representar amplitud y fase. Caso contrario con lo sucedidopara la modulacion FSK para el que es un plano de coordenadas cartesianas en donde cada ejees un tono del set de M posibles tonos ortogonales.

Retomando la definicion analıtica para la modulacion PSK dada en la Ecuacion (4.15), sepuede considerar que el angulo del coseno esta compuesto por la suma de dos angulos. Utilizandola identidad trigonometrica correspondiente, se tiene que:

si(t) =

√2E

Tcos

[ωct+

2πi

M

]=

√2E

T

cosωct cos

[2πi

M

]− sinωct sin

[2πi

M

]=

√2E

TAmc cosωct−

√2E

TAms sinωct (4.18)

en donde indirectamente se ha definido Amc = cos[

2πiM

]y Ams = sin

[2πiM

].

78

Page 84: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

De la Ecuacion (4.18), se puede obtener que una senal digital modulada en fase, puederepresentarse geometricamente como vectores bidimensionales con componentes

√E cos

[2πiM

]y√

E sin[

2πiM

]. La asignacion de los v bits a cada uno de los M = 2v posibles valores de fase,

se puede realizar de distintas maneras, pero la forma preferida es utilizando codificacion Gray.Esto consiste en que los puntos adyacentes solo cambian de un dıgito binario a la vez.

Se puede probar que la mınima distancia entre dos puntos adyacentes esta dada por

dmin = 2√E sin

π

M(4.19)

y su importancia es que juega un papel importante en la determinacion del desempeno de latasa de error (error-rate performance) de un receptor que detecta la senal PSK con presenciade ruido gaussiano aditivo (AWGN).

Ejemplo 4.3 - Distancia Mınima.Determine la distancia mınima para modulaciones PSK-2, 4 y 8 considerando que todas tienenla misma energıa transmitida E. Ademas, calcule en cuantos decibeles se debe incrementar lasenal de energıa para que PSK-8 tenga el mismo performance que PSK-4.Sol. Para M = 2, dmin2 = 2

√E. Para M = 4, dmin4 =

√2E y para M = 8, dmin8 =

√0.5858E.

Para mantener la misma distancia mınima entre 4 y 8 niveles, se requiere incrementar la energıaen un factor de 2/0.5858 = 3.4142. En dB, esto es 5.33dB.

Para valores grandes de M , se puede realizar la aproximacion sin πM≈ π

M, luego la distancia

mınima sera aproximadamente

dmin ≈2π

M

√E, M >> 2 (4.20)

Consecuentemente, al aumentar M al doble -lo que permite enviar un bit mas de informacionpor cada sımbolo– entonces la energıa debe ser aumentada en ∼6dB para asegurar la mismadistancia mınima entre puntos adyacentes.

4.4 Deteccion de Senales en la presencia de AWGN

4.4.1 Region de Decision

Considere un espacio bidimensional como el dado en la Fig. 4.2 en las que se tiene dos prototiposcorruptos por ruido (s1 + n) y (s2 + n). El vector de ruido, n, es un vector aleatorio de medianula, por lo que el vector de recepcion, r, es un vector aleatorio de media s1 o s2. La tareadel receptor, luego de recibir r es decidir cual de las senales fue originalmente transmitida. Elmetodo para esta decision usualmente corresponde a decidir cual de las senales especificadasarroja la menor probabilidad de error, sin embargo existen otras formas de realizarlo.

Para el caso de M = 2 en donde ambas senales posibles son equiprobables y sobre el cualel ruido es un proceso de ruido aditivo Gaussiano (AWGN), se puede demostrar que el error

79

Page 85: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.2: Espacio de senales bidimensional, con vectores arbitarios de igual amplitud s1 y s2

mınimo de decision se logra al elegir la clase de senal en la que la distancia d(r, si) =‖r − si‖es minimizada, en donde ‖.‖ representa la norma del vector. Esta regla es usualmente fijada enterminos de regiones de decision, como se muestra en la Fig. 4.2.

4.4.2 Receptor de Correlacion

La deteccion de senales pasabanda utiliza el mismo principio de senales en banda base cuandose realiza el analisis en presencia de ruido AWGN. El enfoque se dara principalmente en la real-izacion de un filtro “encuadrado” (matched filter) conocido como correlacionador (correlator).Se considerara que la unica fuente de degradacion sera por AWGN, por lo que la senal recibidaestara dada por

r(t) = si(t) + n(t) (4.21)

para un intervalo de tiempo 0 ≤ t ≤ T . Dada la senal recibida, el proceso de deteccion serealiza en dos pasos. En el primero, la senal es reducida a una variable aleatoria unica, z(T ),o a un set de variables aleatorias, zi(T ), i = 1, 2, . . . ,M que se origina a la salida del (los)correlacionador(es) al instante de tiempo t = T . En el segundo paso, se realiza el proceso dedecision, comparando dicha variable aleatoria con un cierto umbral o eligiendo el zi(T ) maximo,como se vera a continuacion. El primer paso puede ser pensado como una transformacion de lasenal en un punto en el plano de decision, y el segundo como el determinar en cual region dedecision se encuentra dicho punto.

Se puede comprobar que el matched filter asegura un SNR maximo a la salida para elinstante t = T . El correlacionador es una realizacion de dicho filtro, y por ende, el receptor decorrelacion se puede definir como M correlacionadores que transforman la senal de entrada r(t)en una secuencia de M numeros zi(T ), i = 1, 2, . . . ,M . Cada correlacionador es caracterizadopor el producto-e-integracion de la senal recibida:

zi(T ) =

∫ T

0

r(t)si(t) dt, i = 1, 2, . . . ,M (4.22)

Ası, una regla de decision razonable es elegir el maximo valor de zi(T ) pues cuadra mejorcon alguna forma de onda conocida a priori, o en otras palabras, tienen la mayor correlacion.

80

Page 86: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.3: Receptor de Correlacion con si(t) como senales de referencia

La Fig. 4.3 muestra el diagrama de bloques del receptor correlacionador en donde se utiliza elset si(t) como senales de referencia para realizar el proceso de decision.

Para el caso de deteccion binaria, lo normal serıa tener dos correlacionadores con prototiposs1(t) y s2(t) respectivamente y una etapa de decision que decida entre el mayor valor de zi(T ).Esto se puede mejorar al tomar la diferencia de los correlacionadores z(T ) = z1(T ) − z2(T )y alimentar la etapa de decision. Si se ha transmitido s1(t) entonces z(T ) sera positiva y encaso contrario sera negativa, por lo que se puede implementar la deteccion binaria mediante lautilizacion de un solo correlacionador, en donde se compara la senal entrante con la diferenciade los prototipos originales, vale decir s1(t)− s2(t). En efecto,

z(T ) = z1(T )− z2(T ) =

∫ T

0

r(t)s1(t) dt−∫ T

0

r(t)s2(t) dt =

∫ T

0

r(t)[s1(t)− s2(t)] dt

Tomando este resultado y recordando que para una modulacion binaria se trabaja en tornoa una sola funcion base, ψ(t), entonces se plantea la opcion de realizar el proceso de deteccionmediante la comparacion con esta senal, en sımbolos

z(T ) =

∫ T

0

r(t)ψ(t) dt =

∫ T

0

[si(t) + n(t)]ψ(t) dt = ai(T ) + n0(T ) .

Si no se tuviese ruido, una senal de entrada si(t) originarıa en la salida del correlacionador sola-mente una componente de senal, zi(T ) = ai(T ). Dado que el correlacionador es un dispositivolineal y el ruido de entrada es un proceso aleatorio Gaussiano, el ruido de salida tambien seraun proceso aleatorio Gaussiano. Ası la salida del correlacionador en presencia de ruido seraz(T ) = ai(T ) + n0(T ), para i = 1, 2. La variable n0(T ) corresponde a la componente de ruido.En base al analisis estadıstico previo, es sencillo visualizar que z(T ) sera tambien una variablealeatoria Gaussiana con media en a1 o a2, dependiendo si se envio un cero o un uno.

Es importante considerar que cualquier set de senales si(t), i = 1, 2, . . . ,M puede serexpresada en funcion a otro set de funciones base ψj(t), j = 1, 2, . . . , N tal como se explicoanteriormente. Ası, si se considera la Ecuacion (4.7), el banco de M correlacionadores dela Fig. 4.3 puede ser reemplazado por un banco de N correlacionadores en donde se utilizan

81

Page 87: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

las senales ψj(t) como referenciales. La salida de los correlacionadores estara determinadaentonces por la generalizacion de la relacion antes mencionada

zj(T ) =

∫ T

0

r(t)ψj(t) dt (4.23)

Para la etapa de decision, este receptor elige la senal si(t) de acuerdo al mejor acierto de loscoeficientes aij con el set de salidas zj(T ). En el caso de que se trabaje con senales si(t)no-ortogonales, la implementacion con las funciones base es mas efectivo en terminos de costos.

Tal como se explico con anterioridad, la senal de ruido remanente n(t) = n(t)− n(t) corre-sponde a un ruido Gaussiano de media cero que no se puede expresar mediante las funcionesbase. Anteriormente se demostro que las componentes de ruido nj son Gaussianas, de mediacero y no correlacionadas entre sı, teniendo una varianza comun dada por N0

2. Ahora bien,

usando un esquema de N correlacionadores con funciones base ψj(t), se tiene que la salidadel set de correlacionadores esta determinada por

zj(T ) =

∫ T

0

r(t)ψj(t) dt =

∫ T

0

[si(t) + n(t)]ψj(t) dt

=

∫ T

0

si(t)ψj(t) dt+

∫ T

0

n(t)ψj(t) dt

= aij + nj ,

en donde se utilizo la definicion de los coeficientes dada anteriormente. Ahora bien, la idea esdemostrar que el ruido remanente n(t) es irrelevante cuando se necesita decidir cual senal fuetransmitida. Consecuentemente, la decision estara determinada completamente por la salida delcorrelacionador zj(T ) = aij + nj. En palabras simples, se busca demostrar que ningun tipo deinformacion adicional se puede extraer del ruido remanente. De hecho, n(t) es completamenteno correlacionado con las salidas de los N correlacionadores.

E n(t) zj(T ) = E n(t) [aij + nj] = E n(t) aij+ E n(t) nj= E n(t) nj

= E

[n(t)−

∑j

njψj(t)

]nj

= E n(t) nj − E

∑k

nkψk(t) nj

= E

n(t)

∫ T

0

n(t)ψj(t) dt

− E

∑k

nkψk(t) nj

=

∫ T

0

E n(τ) n(t)ψj(t) dt−∑k

E nk njψk(t)

= 0 .

Dado que n(t) y zj(T ) son gaussianos y no correlacionados, entonces tambien son es-tadısticamente independientes. Consecuentemente, n(t) no contiene ninguna informacion que

82

Page 88: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

sea relevante en la decision de la senal transmitida; es decir, toda la informacion esta contenidaen las salidas del correlacionador.

Ejemplo 4.4 - Correlacionador.Considere que se recibe un pulso rectangular, g(t), de amplitud a y tiempo de duracion T .Determine la funcion base de este pulso, considerando que se ha generado en base a una senalpasabanda PAM. Ademas, considerando un ruido aditivo gaussiano de media nula, estime lasalida de un demodulador tipo correlacionador y la funcion de densidad de probabilidad dedicha salida.Sol. La energıa del pulso sera E =

∫ T0g2(t) dt = a2T , luego como la generacion se realizo

mediante modulacion PAM, la funcion base sera ψ(t) = 1√a2T

g(t) =

1√T

0 ≤ t ≤ T

0 i.o.c.. Ahora,

la salida del correlacionador, estara determinado por r =∫ T

0r(t)ψ(t) dt = 1√

T

∫ T0r(t) dt. Reem-

plazando r(t) = si(t) + n(t), se obtiene que r = si + n. Dado que E n = 0, entoncesE r = E si = si, pues si es determinıstica. La varianza σ2

r = σ2n = 1

2N0, por lo que final-

mente la funcion de probabilidades sera p(r|si) = 1√N0π

exp[− (r−si)2

N0

]por la gaussianeidad del

proceso.

Receptor de Correlacion Binario

Como se estudio anteriormente, la estadıstica de prueba sera una variable aleatoria Gaussianacon media a1 o a2 dependiendo si se envio un 0 o un 1 binario. Considerando que el ruido tienevarianza σ2

0, entonces las funciones de densidad de probabilidades (pdfs) estaran determinadaspor

p(z|s1) =1√

2πσ20

exp

[−(z − a1)2

2σ20

](4.24)

p(z|s2) =1√

2πσ20

exp

[−(z − a2)2

2σ20

]. (4.25)

Graficamente, ambas pdfs estan entrelazadas por lo que debe haber un criterio de decisionconforme a realizar una buena eleccion del sımbolo, determinando en que region se encuentra lasenal recibida. En la Fig. 4.4 se puede observar esto, marcando las regiones, la linea de decisiony el umbral (denotado por γ0).

Para obtener el valor del umbral, se requiere considerar que la decision se toma en torno alas probabilidades conjuntas p(z, si). Esto quiere decir que una buena regla de decision es: sip(z, s1) > p(z, s2) entonces lo mas probable es que se haya transmitido s1(t); en caso contrario,lo mas probable es que se haya transmitido s2(t). Matematicamente esto se puede representarmediante la relacion

p(z, s1) ≷s1s2 p(z, s2) .

Ahora bien, al utilizar el teorema de Bayes y la condicion de que la probabilidad de que setransmita s1(t) es q, es decir p(s1) = q y p(s2) = 1 − q, entonces se tiene que p(z, s1) =

83

Page 89: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.4: Funcion de Densidad de Probabilidades Condicionales. p(z|s1), p(z|s2)

p(s1)p(z|s1) = qp(z|s1) y p(z, s2) = p(s2)p(z|s2) = (1 − q)p(z|s2). Aplicando esto a la regla dedecision se tiene

p(z, s1) ≷s1s2 p(z, s2)

q1√

2πσ20

exp

[−(z − a1)2

2σ20

]≷s1s2 (1− q) 1√

2πσ20

exp

[−(z − a2)2

2σ20

]2z(a1 − a2)− (a2

1 − a22) ≷s1s2 2σ2

0 ln

[1− qq

],

por lo que si las senales son equiprobables, entonces ln[

1−qq

]= 0 y por ende

z ≷s1s2a1 + a2

2= γ0 , (4.26)

lo que quiere decir que para senales equiprobables, la mejor alternativa para tomar la decision esmediante la eleccion del punto medio de las medias como el umbral de decision. Ası, se planteala regla de decision dada por

z(T ) ≷H1H2

a1 + a2

2= γ0 (4.27)

que determina que la hipotesis H1 debe ser seleccionada3 si z(T ) > γ0, e hipotesis H2 deberaseleccionarse4 si z(T ) < γ0. Para el caso de trabajar con senales antipodales, entonces s1(t) =−s2(t), y a1 = −a2, por lo que el umbral queda determinado por

z ≷s1s2 0 ,

tal como se discutio anteriormente al realizar la deteccion mediante un solo correlacionador.

4.4.3 Detector por Matched-Filter

En vez de utilizar un banco de N correlacionadores para generar las variables de decision, sepuede utilizar un banco de N filtros lineales. Para entender esto de forma especıfica, supongaque la respuesta a entrada impulso de cada uno de esos filtros es

hj(t) = ψj(T − t) , 0 ≤ t ≤ T

3Equivalente a decir que la senal s1(t) fue enviada.4Equivalente a decir que la senal s2(t) fue enviada.

84

Page 90: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

en donde ψj(t) corresponden a las N funciones base, y hj(t) = 0 fuera del intervalo 0 ≤ t ≤ T .La salida de los filtros esta determinada por la convolucion entre la entrada del filtro (la senalrecibida, r(t)) y la respuesta impulso; entonces

yj(t) =

∫ t

0

r(τ)hj(t− τ) dτ

=

∫ t

0

r(τ)ψj(T − t+ τ) dτ , j = 1, 2, . . . , N

Ahora, muestreando las salidas de estos filtros en el tiempo t = T , se obtienen exactamentecada uno de los valores que tambien se obtienen a la salida de los correlacionadores, zj(T ).

zj(T ) = yj(t = T ) =

∫ T

0

r(τ)ψj(τ) dτ .

Un filtro cuya respuesta a entrada impulso sea de la forma h(t) = f(T − t), en donde f(t)se asume que se confina al rango 0 ≤ t ≤ T , se le llama matched-filter (filtro encuadrado) a lasenal f(t). La respuesta a la senal f(T ), es

y(t) =

∫ t

0

f(τ)f(T − t+ τ)dτ ,

que es basicamente la autocorrelacion temporal de la senal f(t), cuyo maximo se logra en t = T .Una de las propiedades mas importantes de esta forma de solucionar el problema es que

si una senal f(t) se corrompe por AWGN, el filtro con una respuesta impulso encuadrada af(t), maximiza la razon senal-ruido (SNR) a la salida. Para demostrar esto, asuma que la senalrecibida r(t) = s(t) + n(t) se hace pasar por un filtro con respuesta impulso h(t) y luego semuestrea en t = T . Entonces, la salida del filtro + muestreador sera:

y(T ) = y(t)|t=T =

∫ t

0

r(τ)h(t− τ) dτ |t=T

=

∫ t

0

s(τ)h(t− τ) dτ |t=T +

∫ t

0

n(τ)h(t− τ) dτ |t=T

=

∫ T

0

s(τ)h(T − τ) dτ +

∫ T

0

n(τ)h(T − τ) dτ

= ys(T ) + yn(T ) ,

en donde ys(T ) corresponde a la componente de la senal y yn(T ) a la componente del ruido. Elproblema consiste entonces en seleccionar la respuesta a entrada impulso del filtro de forma que

maximice el SNR a su salida, que estara determinado por la razon SNRo = y2s(T )Ey2n(T ) , pues se

evaluan la senal y el ruido a la salida de dicho filtro.El denomidador corresponde simplementea la varianza de la componente de ruido a la salida del filtro, luego

Ey2n(T )

= E

[∫ T

0

n(τ)h(T − τ) dτ

]2

= σ20

∫ T

0

h2(T − t) dt .

85

Page 91: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Reemplazando este resultado en la definicion del SNR de la salida del filtro, se tiene

SNRo =y2s(T )

E y2n(T )

=

[∫ T0s(τ)h(T − τ) dτ

]2

σ20

∫ T0h2(T − t) dt

=

[∫ T0h(τ)s(T − τ) dτ

]2

σ20

∫ T0h2(T − t) dt

;

dado que el denominador depende de la energıa en h(t), el maximo SNR sobre h(t) se obtienemaximizando el numerador con el respaldo de que el denominador se mantiene constante. Estamaximizacion se puede realizar utilizando la inecuacion de Cauchy-Schwarz, la que indica que,en general, si g1(t) y g2(t) son senales de energıa finita, entonces[∫ ∞

−∞g1(t)g2(t) dt

]2

≤∫ ∞−∞

g21(t) dt

∫ ∞−∞

g22(t) dt ,

siendo iguales cuando se satisface que g1(t) = Cg2(t), para una constante arbitraria C. Fijandoentonces g1(t) = h(t) y g2(t) = s(T − t), resulta claro que el SNR es maximo cuando h(t) =Cs(T − t), vale decir cuando el filtro esta encuadrado a s(t).

Luego, el maximo SNR a la salida estara determinado por

SNRmax =1

σ20

∫ T

0

s2(t) dt =2E

N0

, (4.28)

en donde E es la energıa de la senal de entrada s(t).Es interesante notar que para la eleccion de h(t) = ψ(T − t), entonces h(T − τ) = ψ(τ),

luego el SNR estara determinado por la razon

SNRmax =

[∫ T0s(τ)h(T − τ) dτ

]2

σ20

∫ T0h2(T − t) dt

=

[∫ T0s(τ)ψ(τ) dτ

]2

σ20

∫ T0ψ2(τ) dτ

=a2i

σ20

,

pues es un sistema base ortonormal y ψ(τ) genera los coeficientes de la senal transmitida s(t).

4.5 Deteccion Coherente

4.5.1 Deteccion Coherente para PSK

El detector de la Fig. 4.3 puede ser utilizado para deteccion coherente de cualquier forma deonda que se tenga en la entrada. Para ejemplificar esto, se considera el ejemplo de modulacionBPSK, cuyas senales, por definicion, seran

s1(t) =

√2E

Tcos(ωct+ φ), 0 ≤ t ≤ T ,

s2(t) =

√2E

Tcos(ωct+ φ+ π) = −

√2E

Tcos(ωct+ φ), 0 ≤ t ≤ T ,

por lo que se tiene que s1(t) = −s2(t). El ruido n(t) es un proceso AWGN. El termino de fase φes una constante arbitaria, por lo que el analisis no se vera afecto al asumirla cero. El parametro

86

Page 92: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

E es la energıa por sımbolo, y T es la duracion de dicho sımbolo. Dada la forma de las senales,solo se requiere una funcion base que esta determinada por:

ψ(t) =

√2

Tcosωct . (4.29)

Ası, las senales transmitidas pueden ser expresadas mediante

s1(t) = a1ψ(t) =√Eψ(t)

s2(t) = a2ψ(t) = −√Eψ(t)

Las senales prototipo en el receptor son la misma que la funcion base, pero normalizada

por el factor√

2T

, lo que implica que la senal prototipo del correlacionador 1, sera ψ(t) y la

del correlacionador 2, sera −ψ(t). Ahora, asumiendo que se transmite s1(t), entonces r(t) =s1(t) + n(t), y los valores esperados a tener a la salida del integrador son:

E z1|s1 = E

∫ T

0

r(t)ψ(t) dt

= E

∫ T

0

[s1(t) + n(t)]ψ(t) dt

= E

∫ T

0

√Eψ2(t) + n(t)ψ(t) dt

En(t)=0

= E

∫ T

0

2

T

√E cos2 ωct dt

=√E .

Similarmente, la salida del correlacionador 2 es

E z2|s1 = E

∫ T

0

r(t)[−ψ(t)] dt

= E

∫ T

0

[s1(t) + n(t)] [−ψ(t)] dt

= E

∫ T

0

−√Eψ2(t)− n(t)ψ(t) dt

En(t)=0

= E

∫ T

0

− 2

T

√E cos2 ωct dt

= −√E .

La etapa de decision debe elegir cual senal fue transmida mediente la determinacion de la

ubicacion en el espacio de las senales. La eleccion de ψ(t) =√

2T

cosωct normaliza las salidas

de los correlacionadores, por lo que el valor medio obtenido sera siempre E zi = ±√E. La

etapa de decision elige la senal con el mayor valor de zi(T ), por lo que para este ejemplo, a lasalida se tendra s1(t).

4.5.2 Deteccion Coherente para PSK Multiple

PSK Multiple (M-aria PSK, MPSK) es expresada conforme a la Ecuacion (4.18). Asumiendoun espacio ortonormal para las funciones base, de acuerdo a la Ecuacion (4.7) se pueden elegirconvenientemente los ejes:

ψ1(t) =

√2

Tcosωct

87

Page 93: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

ψ2(t) =

√2

Tsinωct

en donde la amplitud√

2T

se elige para mantener la salida normalizada conforme a lo estudiado

anteriormente. Ahora, el set completo de senales se puede expresar de la forma

si(t) = ai1ψ1(t) + ai2ψ2(t),i = 1, 2, . . . ,M0 ≤ t ≤ T

=√E cosφi ψ1(t) +

√E sinφi ψ2(t) (4.30)

con φi = 2πiM

. Notese que la Ecuacion (4.30) describe un set de M senales de fase multiple(intrinsecamente no-ortogonales) en terminos de solo dos componentes portadores ortogonales.El caso de M = 4 (QPSK, quadriphase shift keying) es unico dentro de las senales MPSK en elsentido de que las formas de onda QPSK son representadas por una combinacion de miembrosantipodales y ortogonales. Los contornos de decision dividen el espacio de las senales en M = 4regiones. La regla de decision para el detector es decidir que s1(t) fue transmitida si el vectorde la senal recibida cae en la region 1, que se transmitio s2(t) si cae en la region 2, etc. Enotras palabras, se debe elegir la i-esima forma de onda si zi(T ) es la maxima salida de loscorrelacionadores, conforme a lo estudiado anteriormente.

La forma del correlacionador de la Fig. 4.3, muestra que siempre se requieren M correla-cionadores de producto al demodular senales MPSK. Sin embargo, como se discutio anterior-mente, en la practica la demodulacion MPSK se implementa con N = 2 correlacionadores dadoque la base de la modulacion es conforme a las funciones base ψ1(t) y ψ2(t). La senal recibida,r(t), puede ser expresada como

r(t) =

√2E

T[cosφi cosωct+ sinφi sinωct] + n(t) (4.31)

en donde n(t) es un proceso de ruido blanco Gaussiano con media cero. La Fig. 4.5 ilustra eldemodulador con las consideraciones hechas. Las senales X y Y corresponden al calculo de loscorrelacionadores superior e inferior respectivamente, y se definen mediante:

X =

∫ T

0

r(t)ψ1(t) dt (4.32)

Y =

∫ T

0

r(t)ψ2(t) dt . (4.33)

La variable φ es la estimacion ruidosa5 de la fase real transmitida φi. La forma en laque se ha implementado en el demodulador es mediante el calculo de la arcotangente de lascomponentes en fase (X) y en cuadratura (Y ) del vector de la senal recibida r. El resultadoobtenido de dicho calculo es comparado con cada una de los prototipos almacenados, φi. Eldemodulador elige el φi mas cercano al angulo estimado. En otras palabras, el demoduladorcalcula la distancia | φi− φ | para cada protoripo y elige el angulo φi que arroje la menor salida.

5Denominada ası, por la presencia del ruido AWGN en la entrada del demodulador.

88

Page 94: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.5: Demodulador para senales MPSK

4.5.3 Deteccion Coherente de FSK

La modulacion FSK esta caracterizada por modificar la frecuencia del carrier, conforme a loestudiado anteriormente y que se presento en la Ecuacion (4.14) mediante la definicion de lasfunciones analıticas tıpicas. El termino de fase, φ, es considerado nulo ya que es simplementeuna constante arbitraria al momento de hablar de deteccion coherente en fase. Esto implica quela fase se estima de forma preliminar a la deteccion mediante —por ejemplo– un lazo PLL.

Asumiendo que el set de funciones base ψ1(t), . . . , ψN(t) corresponden a un set ortogonal, laforma mas util de definirlas es mediante

ψj(t) =

√2

Tcosωjt, j = 1, 2, . . . , N (4.34)

para lograr una salida esperada normalizada, al igual que lo visto para la modulacion PSK.De la Ecuacion (4.8) se puede escribir:

aij =

∫ T

0

√2E

Tcosωit

√2

Tcosωjt dt =

√E , i = j

0 , i.o.c.. (4.35)

En otras palabras, el i-esimo vector del prototipo de la senal, esta ubicado en i-esimo ejecoordenado a un desplazamiento de

√E desde el origen en el espacio de senales. En este

esquema, para el caso general de MFSK, la distancia entre dos vectores de prototipos si y sj esconstante:

d(si, sj) =‖si − sj‖ =√

2E, ∀i 6= j .

La Fig. 4.6 muestra los vectores de las senales prototipo y las regiones de decision para unsistema FSK-3 coherentemente detectado. Como en el caso de PSK, el espacio de las senales esparticionado en M regiones distintas, cada una conteniendo un vector de senal prototipo; aca,dado que las regiones de decision son tridimensionales, los lımites de decision son planos en vezde lıneas. La regla de decision optima es decidir que la senal transmitida pertenece a la clasecuyos ındices corresponden a la region en donde la senal recibida se encuentra. Por ejemplo, enla Fig. 4.6, el vector de la senal recibida r esta en la region 2. Utilizando la regla de decisionimpuesta arriba, el detector clasifica r como la senal s2.

Dado que el ruido es un vector aleatorio Gaussiano, existe una probabilidad mayor que cerode que r pueda haberse producido por una senal distinta a s2. Por ejemplo, si el transmisor

89

Page 95: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.6: Particionado del espacio de senales para senales FSK-3

envio s2, entonces r sera la suma de la senal mas ruido, s2 + na, y la decision de haber elegidos2 es correcta. Sin embargo, si el transmisor envio s3, el vector r podrıa ser la suma de la senalmas ruido, s3 +nb y la decision de elegir s2 sera un error. El desempeno de error para sistemasFSK coherentemente detectada sera tratada mas adelante.

En la deteccion coherente de FSK, la senal recibida, r(t), se correlaciona con cada una delas M posibles senales, asumiendo que la fase fue correctamente estimada. Este requerimientohace que la demodulacion coherente FSK sea extremadamente compleja y poco practica, espe-cialmente cuando se trabaja con muchas senales. Por lo mismo, no se considera como un puntoimportante de estudio dentro del curso, y se hara mas incapie en la deteccion no-coherente deFSK en la siguiente seccion.

4.6 Deteccion No-Coherente

4.6.1 Deteccion No-Coherente de FSK

En este curso, se estudiara la deteccion de la senal FSK usando filtros pasabanda y detectoresde envolvente, al igual que para el caso analogo. El demodulador consta de M filtros centradosen fi = ωi

2πy con un ancho de banda de Wf = 1

T. Posteriormente, los detectores de envolvente

consisten en un rectificador seguido de un filtro pasa bajo. Los detectores estan concentrados enla envolvente de cada senal y no en las senales en sı. La fase de la portadora no es importanciaen la definicion de una envolvente, por lo tanto no se utiliza informacion de esta variable.

Para el caso de FSK binaria, la decision de si se recibio un cero o un uno es hecha en basea cual de los dos detectores de envolvente tiene la mayor amplitud al momento de tomar la

90

Page 96: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.7: Deteccion no-coherente para modulacion FSK usando detector de envolvente

medida. Similarmente, para sistemas FSK multiple (MFSK), la decision acerca de cual de lasM senales fue transmitida es hecha en base a cual de los detectores de envolvente presenta lamaxima salida.

Espacio Mınimo de tonos para FSK

La modulacion FSK es normalmente implementada mediante espacios ortogonales, en dondecada tono (sinusoidal) en el set de senales no puede interferir con ninguno de los otros tonos.Entonces, aparece de forma natural la pregunta ¿Cual es la distancia en frecuencia mınimarequerida, ωi+1 − ωi, para asegurar la ortogonalidad del set de senales? Para responder estapregunta, considere dos senales cos(ω1t+φ) y cosω2t, en donde φ sera una constante arbitaria enel intervalo [0, 2π], que cuantificara la diferencia de fase entre ambos tonos y no necesariamentela fase particular de la primera senal. La idea, es encontrar alguna restriccion sobre ambasfrecuencias ω1 = 2πf1 y ω2 = 2πf2 que permita asegurar la ortogonalidad del espacio generado.Considere ademas que f1 > f2 y que la duracion de cada tono (sımbolo) es T segundos; luegola tasa de sımbolos sera 1/T sımbolos por segundo. Entonces, ambas senales seran ortogonalessi y solo si

I =

∫ T

0

cos(ω1t+ φ) cosω2t dt = 0 ,

entonces, resolviendo la integral se tiene

I =

∫ T

0

cos(ω1t+ φ) cosω2t dt

= cosφ

∫ T

0

cosω1t cosω2t dt− sinφ

∫ T

0

sinω1t cosω2t dt

=1

2cosφ

[sin(ω1 + ω2)T

ω1 + ω2

+sin(ω1 − ω2)T

ω1 − ω2

]...

+1

2sinφ

[cos(ω1 + ω2)T − 1

ω1 + ω2

+cos(ω1 − ω2)T − 1

ω1 − ω2

].

Asumiendo que f1 + f2 >> 1, se puede realizar la aproximacion

sin(ω1 + ω2)T

ω1 + ω2

≈ cos(ω1 + ω2)T

ω1 + ω2

≈ 0 ,

91

Page 97: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

lo que al reemplazar e igualar con cero, permite obtener

cosφ sin(ω1 − ω2)T + sinφ[cos(ω1 − ω2)T − 1] = 0 . (4.36)

Para obtener el resultado final, se deben analizar dos casos: FSK coherente y no coherente.Para el caso de FSK no-coherente, no se puede realizar ninguna consideracion sobre la fase φ,por lo que ambos terminos solo podran sumar cero cuando ambos sean cero, es decir

sin(ω1 − ω2)T = 0 ∧ cos(ω1 − ω2)T = 1

(ω1 − ω2)T = nπ ∧ (ω1 − ω2)T = 2kπ n, k ∈ Z(ω1 − ω2)T = 2kπ

f1 − f2 =k

T,

por lo tanto el mınimo se logra con k = 1, dando un espaciado mınimo de f1 − f2 = 1T

, quecorresponde a la tasa de sımbolos.

Para el caso de FSK coherente, se tendra algun conocimiento sobre la fase de la senalutilizando, por ejemplo, un lazo PLL. Dado dicho conocimiento, la etapa de correlacion se haracon la senal de referencia de fase conocida, lo que permite fijar φ = 0 sin perdida de generalidad.Reemplazando esto en la Ecuacion (4.36), la igualdad a cero se traduce en sin(ω1 − ω2)T = 0.Entonces f1 − f2 = n

2T, con n ∈ Z, por lo que el mınimo espaciado requerido esta determinado

por f1−f2 = 12T

. Por lo tanto, para la misma tasa de sımbolos, la modulacion FSK detectada enforma coherente, puede ocupar menos ancho de banda que la detectada en forma no-coherente,y aun asi mantener el requerimiento sobre la ortogonalidad de las senales. Se puede decir, queFSK coherente es mas eficiente en ancho de banda que FSK no-coherente.

A modo de explicar este resultado en forma mas practica, considere un tono con frecuenciafi que es encendido por un intervalo de tiempo de duracion T y luego es apagado. Luego estadescrito por la relacion

si(t) = cos(ωit) rect

(t

T

),

en donde

rect

(t

T

)=

1 ,−T

2≤ t ≤ T

2

0 , | t |> T2

.

La transformada de Fourier de la senal si(t) sera entonces F [si(t)] = Tsinc[(f − fi)T ]. Ahorabien, si se graficaran dos tonos adyacentes de frecuencias f1 y f2, como en la Fig. 4.8, entoncesla atencion se centra en que ambos no se interfieran entre sı durante la deteccion. Esto se lograsi el valor peak del tono 1 coincide con uno de los puntos en que el espectro del tono 2 se hacecero, y similarmente, que el peak del espectro del tono 2 coincida con una de las pasadas porcero del espectro del tono 1. Entonces, la distancia que existe entre lobulo principal y el primercruce con cero, representa el espaciado mınimo requerido. Esto dice que la separacion mınimaentre los tonos debe ser de 1

THertz, tal como se obtuvo anteriormente.

Deteccion en Cuadratura de FSK

El metodo de deteccion de envolvente es una solucion bastante simple, pero el uso de filtrosusualmente resulta en mayores costos y peso que otras metodologıas como el detector por

92

Page 98: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.8: Espaciado mınimo entre tonos para deteccion no-coherente de FSK ortogonal

cuadratura, que en general pueden ser implementados digitalmente. El detector por cuadraturapara FSK no-coherente corresponde a una realizacion particular de la version utilizada en PSKcoherente, en donde la deteccion se realizaba mediante la comparacion directa con senalescosenoidales y senoidales. Considere que la senal recibida es de la forma

r(t) = si(t) + n(t) =

√2E

Tcos(ωit+ φ) + n(t) ,

en donde φ representa la fase desconocida y n(t) es un proceso AWGN. La comparacion deesta senal recibida se realiza mediante 2M correlacionadores que utilizan senales prototipoen cuadratura. Por ejemplo, para el k-esimo par de correlacionadores las senales prototipo

estan dadas por√

2T

cosωkt para la componente en lınea, y√

2T

sinωkt para la componente en

cuadratura. Entonces, la salida del k-esimo par se puede inferir del resultado anterior, y sera

z(I)k =

∫ T

0

r(t)

√2

Tcosωkt dt =

∫ T

0

[√2E

Tcos(ωit+ φ) + n(t)

]√2

Tcosωkt dt

=√E

2

T

[∫ T

0

cos(ωit+ φ) cosωkt dt+

∫ T

0

n(t) cosωkt dt

]=

2√E

T

[cosφ

∫ T

0

cosωit cosωkt dt− sinφ

∫ T

0

sinωit cosωkt dt

]+ n

(I)k

=√E

[sin(ωi − ωk)T

(ωi − ωk)Tcosφ− cos(ωi − ωk)T − 1

(ωi − ωk)Tsinφ

]+ n

(I)k ,

para la componente en lınea, y

z(Q)k =

√E

[cos(ωi − ωk)T − 1

(ωi − ωk)Tcosφ+

sin(ωi − ωk)T(ωi − ωk)T

sinφ

]+ n

(Q)k ,

para la componente en cuadratura. Los terminos n(I)k y n

(Q)k denotan las componentes de ruido

Gaussiano en la salida del correlacionador. Es facil observar que cuando i = k, entonces los

93

Page 99: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

valores de las muestras en el detector son√E cosφ + n

(I)k y

√E sinφ + n

(Q)k , mientras que

para i 6= k, las componentes practicamente desaparecen independiente del valor que tenga ladiferencia de fase φ. Esto ultimo se da por que la separacion frecuencial entre muestras se eligecomo multiplos de la tasa de bits, conforme a lo que se estudio anteriortemente. Entonces, parael resto de los 2(M − 1) correlacionadores, la salida sera simplemente la componente de ruidoen fase y cuadratura.

En base a estos resultados, se incluye la etapa de decision posteror al banco de estos cor-relacionadores, eligiendo evidentemente el par de correlacionadores con mayor salida.

4.6.2 Deteccion de PSK Diferencial

El nombre PSK diferencial en ocaciones necesita ser clarificado pues se puede estar haciendoreferencia a dos aspectos diferentes en el proceso de modulacion/demodulacion: el encodingy la deteccion. El termino encoding difencial se refiere al proceso por el cual el encoding serealiza de forma tal, que la presencia de un uno o un cero se manifiestra como una similitudo diferencia de sımbolos cuando se compara con el sımbolo anterior. El termino deteccioncoherente diferenciada de una modulacion PSK con encoding diferencial es el significado comunde DPSK. Esta se refiere a un esquema de deteccion clasificado como no-coherente pues norequiere fase de referencia para la portadora del receptor. A pesar de ello, una senal PSK conencoding diferencial, tambien puede ser coherentemente detectada.

En sistemas no-coherentes, no se realiza ningun esfuerzo en estimar el valor actual de la fasede la senal entrante. Por lo tanto, si la forma de la senal transmitida es

si(t) =

√2E

Tcos[ωct+ θi(t)] ,

entonces la senal recibida estara caracterizada por

r(t) =

√2E

Tcos[ωct+ θi(t) + α] + n(t),

i = 1, 2, . . . ,M0 ≤ t ≤ T

,

en donde α es una constante arbitaria y tıpicamente es asumida como una variable aleatoriauniformemente distribuıda entre cero y 2π; en sımbolos, α ∼ U [0, 2π]. El termino n(t) es unproceso AWGN.

Si se asume que α varıa lentamente con respecto al tiempo de dos periodos, 2T , entonces ladiferencia de fase entre dos senales de entrada consecutivas, θj(T1) y θk(T2) resulta ser indepen-diente de α, esto es:

[θk(T2) + α]− [θj(T1) + α] = θk(T2)− θj(T1) = φi(T2) . (4.37)

La fase de la portadora del intervalo anterior, se puede usar como referencia de fase parala demodulacion. Su uso requiere un encoding diferencial de la secuencia del mensaje en eltransmisor, dado que la informacion es acarreada por diferencias de fases entre dos formasde onda consecutivas. Ası, para enviar el i-esimo mensaje (i = 1, 2, . . . ,M), la senal actualdebe tener un incremento de φi = 2πi/M radianes por sobre la senal previa. El detector, engeneral, calcula las coordenadas de la senal entrante correlacionandola con las senales internas

94

Page 100: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

√2/T cosωct y

√2/T sinωct; luego mide el angulo entre el vector de la senal actualmente

recibida y el vector de la senal previa.En general, DPSK presenta menos eficiencia que PSK, pues los errores tienden a propagarse

entre tiempos de sımbolos adyacentes dada la correlacion entre las formas de onda. Una formade ejemplificar esta diferencia, es que PSK compara con una senal pura, en cambio en DPSKdos senales ruidosas son comparadas entre si. Se podrıa decir que existe el doble de ruidoaproximadamente en DPSK, por lo que a primera vista, la estimacion de DPSK se manifiestacon una degradacion de aproximadamente 3dB en comparacion con la modulacion PSK. Estadegradacion aumenta drasticamente con el incremento del SNR. A pesar de esta perdida deperformance, se gana al tener un sistema con una complejidad menor.

PSK Diferencial Binaria

La escencia de la deteccion coherente diferencial en DPSK es que la identidad de los datos esinferida desde cambios que existan en la fase entre sımbolo y sımbolo. Por lo mismo, dado quelos datos se detectan examinando la onda en forma diferencial, entonces primero la informaciondebe ser codificada de en una forma tambien diferencial. En la Tabla 4.2 se ilustra el encodingdiferencial de un mensaje binario, m(k), siendo k la unidad de tiempo. El encoding diferencialcomienza (tercera fila en la Tabla) con el primer bit del la secuencia, c(k = 0), elegido en formaarbitraria (en este caso se considero como un uno). Ası, la secuencia de bits codificados pueden,en general, ser codificados de dos formas:

c(k) = c(k − 1)⊕m(k) , (4.38)

o,c(k) = c(k − 1)⊕m(k) , (4.39)

en donde el sımbolo ⊕ representa la suma en modulo 2 y la barra superior representa el com-plemento. En la Tabla 4.2 el encoding diferencial se ha obtenido utilizando la Ecuacion (4.39).En palabras, el bit de codigo actual, c(k), es uno si el bit del mensaje, m(k), y el bit de codigoanterior, c(k − 1), son iguales, en otro caso, c(k) es cero. La cuarta fila traduce el bit de lasecuencia en el corrimiento de fase requerido, θ(k), en donde un uno esta caracterizado por uncorrimiento de 180o y un cero por uno de 0o.

Tabla 4.2: Encoding Diferencial para modulacion DPSK binaria

Indice de Muestreo, k 0 1 2 3 4 5 6 7 8 9 10Mensaje de Informacion, m(k) 1 1 0 1 0 1 1 0 0 1Encoding Diferencial del mensaje, c(k) 1 1 1 0 0 1 1 1 0 1 1Fase, θ(k) π π π 0 0 π π π 0 π π

En la Fig. 4.9 se muestra el diagrama en bloques de un demodulador DPSK binario. Noteseque el multiplicador-integrador similar al utilizado en la Fig. 4.3, es la escencia de este procesode deteccion; como en PSK coherente, aun se trata de correlacionar la senal entrante con algunasenal de referencia. La diferencia interesante, es que aquı la senal de referencia es simplementeuna version retardada de la senal entrante en T unidades de tiempo, con T como la duracion

95

Page 101: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

de cada sımbolo. En otras palabras, durante cada duracion de sımbolo, estamos comparandoun sımbolo recibido con el sımbolo recibido anteriormente, para luego mirar la correlacion o laanticorrelacion.

Fig. 4.9: Demodulador para DPSK utilizando deteccion coherente diferencial

Considere la senal recibida con fase θ(k) en la entrada del detector de la Fig. 4.9 con laausencia de ruido. La fase θ(k = 1) es comparada con su valor anterior, θ(k = 0), y como ambastienen el mismo valor π, entonces el primer bit detectado es m(k = 1) = 1. Luego se comparaθ(k = 2) con θ(k = 1) y como nuevamente tienen el mismo valor, entonces m(k = 2) = 1. Luegose compara θ(k = 3) con θ(k = 2) pero ahora tienen valores diferentes, por lo que m(k = 3) = 0,y ası sucesivamente.

Conforme a la literatura, el esquema planteado no es optimo en terminos de performance deerror, ya que una version optima requiere la referencia de la portadora en frecuencia, pero nonecesarimente tiene que ser en fase con el carrier entrante. La Fig. 4.10 muestra el diagrama de

bloques que safisface dicho requerimiento. Notese que la funcion ψ(t) corresponde a√

2T

cosωct.

Fig. 4.10: Demodulador Optimo en terminos de performance del error para DPSK utilizandodeteccion coherente diferencial

4.7 Desempeno de Error en Sistemas Binarios

Una medida importante del performance de un sistema digital corresponde a la probabilidad deerror, ya que es utilizada en la comparacion de esquemas de modulaciones digitales. El calculopara obtener dicha probabilidad puede ser visto como un problema geometrico que envuelveencontrar la probabilidad de que, dado un vector de una senal particular transmitida, digamoss1, el vector de ruido n, dara origen a una senal recibida que cae fuera de la region de decisioncorrespondiente, en este caso, la region 1. Ası, la probabilidad de que el detector realice unamala decision es conocida como la probabilidad de error de sımbolo (probability of symbol error)y se representa como PE.

96

Page 102: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

4.7.1 Probabilidad de Error de Bit para BPSK Coherente

Por conveniencia, en esta seccion se tratara la deteccion coherente de modulacion BPSK. Paraeste caso, el error de sımbolo es el error de bit. Asuma que las senales son igualmente probablesy que la senal si(t), i = 1, 2 es transmitida. La senal recibida sera r(t) = si(t) + n(t), en donden(t) es un proceso AWGN. Las senales antipodales s1(t) y s2(t), pueden ser caracterizadas enun espacio de senal unidimensional conforme a lo descrito en la Ecuacion (4.29), luego

s1(t) =√E ψ(t) (4.40)

s2(t) = −√E ψ(t) (4.41)

en donde 0 ≤ t ≤ T . La etapa de decision del detector, escogera la senal si(t) que entregue lamayor correlacion zi(T ) a la salida del correlacionador, o en este caso simplemente se deberaimplementar la regla de decision de la Ecuacion (4.27). En esta etapa se pueden cometer doserrores posibles. El primero coresponde a que se envio la senal s1(t) pero el ruido es tal, queel detector mide valores negativos de z(T ), eligiendo la hipotesis H2. La otra opcion, es queocurra lo contrario: se eliga H1 a pesar de que se transmitio s2(t). Ası la probabilidad de errorestara determinada por

PB = P [(H2, s1), (H1, s2)]

= P (H2, s1) + P (H1, s2)

= P (H2|s1)P (s1) + P (H1|s2)P (s2)

PB =1

2P (H2|s1) +

1

2P (H1|s2) (4.42)

en donde se ha considerado que la transmision de las senales es equiprobable.Dada la naturaleza de las senales recibidas (variables aleatorias Gaussianas con media nula y

varianza fija) y la simetrıa de sus funciones de densidad de probabilidad en la Fig. 4.4, entoncesse puede decir que:

PB = P (H2|s1) = P (H1|s2) .

Ası, la probabilidad de error de bit es numericamente igual al area bajo la “cola” de alguna delas pdf, p(z|s1) o p(z|s2) que cae en el lado “incorrecto” del umbral (area achurada en Fig. 4.4).En otras palabras, el calculo de PB se hace integrando p(z|s1) entre los lımites −∞ y γ0 o, comose muestra aca, integrando p(z|s2) entre los lımites γ0 y ∞. Luego

PB =

∫ ∞γ0

p(z|s2) dz

en donde p(z|s2) tiene distribucion Gaussiana con media ai, y el umbral optimo, γ0, esta dadopor (a1 + a2)/2 como se demostro anteriormente.

Se puede demostrar que

PB =

∫ ∞(a1−a2)/2σ0

1√2π

exp

(−u

2

2

)du = Q

(a1 − a2

2σ0

)(4.43)

97

Page 103: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

en donde σ0 es la desviacion estandar del ruido fuera del correlacionador. La funcion Q(x) esllamada funcion de error complementario o funcion de co-error, y se define mediante:

Q(x) =1√2π

∫ ∞x

exp

(−u

2

2

)du . (4.44)

Para senales antipodales de igual energıa, como el caso de BPSK, las salidas del receptorson a1 =

√Eb cuando s1(t) fue enviada y a2 = −

√Eb cuando se envio s2(t), en donde Eb es

la energıa de la senal por sımbolo binario. Para AWGN, la varianza se puede reemplazar porN0/2 como se demostro anteriormente. Entonces, se puede obtener que

PB = Q

(√2EbN0

). (4.45)

Ejemplo 4.5 - Probabilidad de Error de Bit para BPSK.Encuentre la probabilidad de error para un sistema BPSK con un bit rate de 1Mbit/s. Lasformas de onda recibidas tienen una amplitud de 10mV y se detectan de forma coherente.Asuma que la PSD del ruido es 10−11 W/Hz y tanto la potencia de las senales como la energıapor bit estan normalizadas a una carga de 1Ω.Sol. Dado que la tasa de bits es 1Mbit/s, el tiempo de duracion por sımbolo esta determinado

por T = 1/R = 1µs. La amplitud de la senal esta determinada por√

2Eb

T= 10−2, por lo que se

obtiene que Eb = 5 · 10−11 J . Ahora, PB = Q(√

2Eb

N0

)= Q(

√10) = 8 · 10−4.

Ejemplo 4.6 - Probabilidad de Error BPSK.Encuentre el numero de bits erroneos en un dıa para un receptor BPSK coherente con lassiguientes caracterısticas: Tasa de bits: 5000 bits por segundo, formas de onda de entradas1(t) = A cosω0t y s2(t) = −A cosω0t, con A = 1mV . La densidad espectral de potencia delruido es N0 = 10−11 W/Hz. Asuma que la potencia de las senales como la energıa por bit estannormalizadas a una carga de 1Ω.

Sol. La energıa por bit es Eb = P · T = A2

2T , luego PB = Q

(√2Eb

N0

)= Q

(A√N0R

)=

Q(√

20) ≈ 4.05 · 10−6 errores por bit. Ahora, el numero totales de bits errados en un dıa es:5000 bit

s· 86400 s

dia· 4.05 · 10−6 = 1750 bits erroneos en un dıa de transmision.

Ejemplo 4.7 - Probabilidad de Error BPSK.Un sistema de deteccion coherente para BPSK de operacion continua, tiene errores a una tasamedia de 100 errores por dıa. Asumiendo una tasa de datos de 1000 bits por segundo y unapotencia de ruido de N0 = 10−10 W/Hz, calcule la probabilidad de error de bit promedio.Sol. El numero total de bits por dıa que recibe el sistema esta dado po 1000 bit

s· 86400 s

dia=

8.64 · 107 bitdia

. Entonces, la probabilidad de error por bit promedio estara determinada por

PB =100 errores

dia

8.64·107 bitdia

= 1.1574 · 10−6 errores por bit.

98

Page 104: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

4.7.2 Probabilidad de Error de Bit para DPSK

La probabilidad de error de bit para PSK codificada en forma diferencial y detectada en formacoherente esta determinada por

PB = 2Q

(√2EbN0

)[1−Q

(√2EbN0

)], (4.46)

y dada lo complejo de la demostracion6, escapa a los alcances de este curso por lo que solo sedejara planteada.

4.7.3 Probabilidad de Error de Bit para FSK Coherente

La Ecuacion (4.45) describe la probabilidad de error de bit para deteccion coherente de senalesantipodales. Dicha ecuacion fue directamente obtenida de la Ecuacion (4.43), que a su vez seobtuvo en base a la consideracion del umbral optimo γ0. Para lograr minimizar la probabilidadde error, que es lo que necesitarıa para optimizar una transmision, se requiere maximizar elargumento de la funcion de co-error, Q(x). Para realizar esto, se necesita una forma masgeneralizada del argumento a1−a2

2σ0. Resulta interesante notar que el valor (a1− a2)2 corresponde

a la energıa de la diferencia de las senales s1(t) y s2(t); en efecto, al considerar que s1(t) = a1ψ(t)y s2(t) = a2ψ(t), entonces

Ed =

∫ T

0

[s1(t)− s2(t)]2 dt = (a1 − a2)2

∫ T

0

ψ2(t) dt = (a1 − a2)2 .

Por lo tanto, el numerador del argumento original corresponde a la raiz de la energıa Ed.Recordando que σ2

0 es la varianza del ruido AWGN y que N0/2 es su densidad espectral de

potencia, entonces la razon del argumento de la funcion de coerror es simplemente√

Ed

2N0.

Entonces, en terminos mas generales la Ecuacion (4.43) se puede expresar de la forma

PB = Q

(√Ed2N0

). (4.47)

Para generalizar aun mas este resultado y poder aplicarlo en senales que no necesariamenteson antipodales, se trabaja directamente sobre la energıa de la diferencia de senales. Anteri-ormente se dijo que era normal elegir un set de senales con la misma energıa, por lo que eldesarrollo de la energıa diferencial es

Ed =

∫ T

0

[s1(t)− s2(t)]2 dt

=

∫ T

0

s21(t) dt+

∫ T

0

s22(t) dt− 2

∫ T

0

s1(t)s2(t) dt

= 2Eb − 2

∫ T

0

s1(t)s2(t) dt

= 2Eb(1− ρ) ,

6Disponible en: Lindsey and Simon, Telecommunication Systems Engineering, Prentice-Hall, Inc., EnglewoodCliffs, 1973

99

Page 105: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

en donde se ha considerado que Es1 = Es2 = Eb, y el paramentro

ρ =1

Eb

∫ T

0

s1(t)s2(t) dt (4.48)

es el coeficiente de correlacion cruzada en el tiempo. Este coeficiente de correlacion, es unamedida de la similitud que existe entre las senales binarias, por lo que −1 ≤ ρ ≤ 1. En terminosde vectores de senales, el coeficiente de correlacion cruzada puede ser expresado como ρ = cos θ,siendo θ el angulo que existe entre los vectores s1 y s2. Utilizando la expresion generalizadadada en la Ecuacion (4.47) y lo obtenido para la energıa diferencial en la Ecuacion (4.48) seobtiene la forma generalizada del calculo de la probabilidad de error de bit no limitada solo asenales antipodales. Esta ecuacion queda determinada entonces por

PB = Q

(√Ed2N0

)= Q

√(1− ρ)EbN0

. (4.49)

Para ρ = 1 (equivalentemente θ = 0) las senales son perfectamente correlacionadas (sonidenticas). Para ρ = −1 (equivalentemente θ = π) las senales son anticorrelacionadas (antipo-dales). Dado que las senales de PSK binario son antipodales entonces se puede fijar ρ = −1,y la Ecuacion (4.49) se convierte en la Ecuacion (4.45). Para senales ortogonales como FSKbinaria (BFSK) θ = π/2, pues los vectores s1 y s2 son perpendiculares entre sı. Ası, ρ = 0 y seobtiene

PB = Q

(√EbN0

). (4.50)

en donde la funcion de co-error esta definida por la Ecuacion (4.44).Como dato al margen, es interesante notar que para la modulacion OOK, la probabilidad de

error de bit descrita por la Ecuacion (4.50), es identica al performance de error para deteccioncoherente de senales OOK.

4.7.4 Probabilidad de Error de Bit para FSK No-Coherente

Considere el set de senales equiprobables para FSK binaria, si(t), que fueron previamentedefinidas por la Ecuacion (4.14). Al trabajar con FSK no coherente el termino de fase, φ, esdesconocido pero se asume constante. El detector estara caracterizado por M = 2 canales defiltros pasabanda y detectores de envolvente, como se mostro en la Fig. 4.7. La entrada deldetector corresponde a la senal recibida, dada por la ecuacion r(t) = si(t) + n(t), como se hadiscutido hasta ahora, en donde el termino n(t) es un proceso AWGN con densidad espectralde potencia N0/2. Asumiendo que las senales estan lo suficientemente separadas en frecuenciapara que el traslape sea despreciable, se puede plantear la probabilidad de error de igual formacomo se comenzo para la modulacion PSK:

PB =1

2P (H2|s1) +

1

2P (H1|s2) =

1

2

∫ γ0

−∞p(z|s1) dz +

1

2

∫ +∞

γ0

p(z|s2) dz

100

Page 106: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

Conforme a lo estudiado anteriormente, para FSK tambien se puede probar que el umbraloptimo de decision es γ0 = 0. Esto implica que existe una simetrıa entre ambas pdfs y serelacionan mediante p(z|s1) = p(−z|s2), por lo tanto se puede escribir

PB =

∫ +∞

0

p(z|s2) dz = P (z1 > z2|s2) (4.51)

en donde z1 y z2 corresponden a las salidas de z1(T ) y z2(T ) de las detectores de envolvente dela Fig. 4.7. Lo obtenido por la Ecuacion (4.51) se traduce en decidir por la hipotesis H1, cuandoen realidad se ha transmitido la senal s2(t), tal como se estudio recientemente.

Ahora bien, si se ha transmitido la senal s2(t), entonces la salida del correlacionador 1,z1(T ) sera netamente una variable aleatoria de ruido Gaussiano, ya que no tendra componentede senal. Cuando una variable aleatoria con distribucion Gaussiana se hace pasar a traves de undetector de envolvente no lineal, se origina una variable aleatorioa que sigue una distribucionde Rayleigh a la salida, dada por

p(z1|s2) =

z1σ20

exp(− z21

2σ20

), z1 ≥ 0

0 , z1 < 0(4.52)

en donde σ20 es el ruido a la salida del filtro. Por otra parte, dado que la entrada al detector de

envolvente 2 es una sinusoidal mas ruido, z2(T ) tendra una distribucion Rician dada por

p(z2|s2) =

z2σ20

exp(− z21+A2

2σ20

)I0

(z2Aσ20

), z2 ≥ 0

0 , z2 < 0(4.53)

en donde A =√

2E/T . La funcion I0(x) es conocida como la funcion de Besel modificada deprimera clase y orden cero, y esta definida por

I0(x) =1√2π

∫ 2π

0

exp[x cos θ] dθ . (4.54)

Realizando la integracion de la Ecuacion (4.51) en base a la definicion dada por las Ecua-ciones (4.52) y (4.53), se obtiene que la probabilidad de error de bit para esta modulacion estadeterminada por

PB =1

2exp

(− A2

4σ20

)(4.55)

Utilizando el hecho de que la varianza del ruido puede ser calculada mediante σ20 = 2N0

2Wf , con

Wf como el ancho de banda del filtro del demodulador de la Fig. 4.7, se obtiene

PB =1

2exp

(− A2

4N0Wf

), (4.56)

en donde se puede notar que el performance de error depende del ancho de banda del filtropasabanda, teniendo una disminucion del error a medida que Wf disminuye. Este resultadoes valido solo si no existe interferencia entre sımbolos (o al menos es despreciable) como fue

101

Page 107: Apuntes de Comunicaciones Digitales

CAPITULO 4. MODULACIONES DIGITALES PASABANDA

postulado al comienzo del desarrollo en la primera parte de esta seccion. Se puede demostrar quedicha condicion se logra para unWf mınimo deR = 1/T bits por segundo. Ası la Ecuacion (4.56)puede ser reescrita mediante

PB =1

2exp

(−A

2T

4N0

)=

1

2exp

(−1

2

EbN0

). (4.57)

En la Fig. 4.11 se muestra una comparacion de las probabilidades de error de bit paradistintas tecnicas de modulacion binaria. Notese que el factor Eb/N0 puede se expresado comola razon entre la potencia promedio de la senal y la potencia promedio del ruido (SNR), por loque existe una relacion directa dada por:

EbN0

=S · TN0

=S

R ·N0

=S ·W

R ·N0 ·W=S

N

W

R= SNR

W

R

en donde W es el ancho de banda de la senal, S la potencia promedio de la senal modulante, Tla duracion de cada sımbolo, R = 1/T la tasa de bits y N = N0W .

Fig. 4.11: Probabilidad de Error de Bit para diferentres tipos de sistemas binarios

Tabla 4.3: Probabilidad de Error para modulaciones binarias estudiadasModulacion PB

PSK Coherente Q(√

2Eb

N0

)DPSK No-Coherente 1

2exp

(−Eb

N0

)FSK Coherente Q

(√Eb

N0

)FSK No-Coherente 1

2exp

(−1

2Eb

N0

)

102

Page 108: Apuntes de Comunicaciones Digitales

Capıtulo 5

Introduccion a la Codificacion

5.1 Introduccion

En el presente capıtulo se presentan metodos para codificacion, con el fin ultimo de alcanzarlos lımites para el canal impuestos por Shanon que se estudiaron en el Capıtulo 2 del curso;es decir, se quiere alcanzar la capacidad del canal. El problema es que lograr la capacidad delcanal es mucho mas dificil que disenar buenos codigos para la fuente.

La introduccion general de objetivo del capıtulo, se hara mediante un ejemplo particular,para demostrar que la codificacion logra mejorar la probabilidad de error en comunicacionesdigitales. Considere entonces un sistema de comunicaciones digital con potencia del transmisorP y tasa de la fuente R. El sistema emplea una modulacion PSK con M = 4 (QPSK), en el quelos pares de bits son mapeados en cualquiera de las cuatro senales dadas por la constelacion de laFig. 5.1. La energıa de cada senal determina el radio de la circunferencia mediante

√E. Notese

que por trabajar con QPSK, esta energıa corresponde a la energıa por cada dos bits, por lo queel radio del cırculo esta determinado por

√2Eb, en donde Eb representa la energıa por bit. Lo

interesante de expresarla de esta forma es que la energıa por bit esta determinada por el productode la tasa de bits por segundo y la potencia del transmisor, en sımbolos Eb = PT = P/R.

ψ1(t)

ψ2(t)

√2Eb

s1s2

s3 s4

Fig. 5.1: Constelacion de las senales para QPSK

103

Page 109: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

La distancia Euclidiana entre senales adyacentes esta determinada por 2√Eb, por ende la

mınima distancia cuadratica para esta modulacion es

d2min = 4Eb = 4

P

R. (5.1)

Considere que ahora que en vez de transmitir una senal QPSK (que es bidimensional), se utilizan3 senales ortonormales para transmitir los mismos 2 bits. Por ejemplo se puede asumir que dichoset esta dado por ψ(t), ψ(t−T ), y ψ(t−2T ), en donde ψ(t) es nula fuera del intervalo de tiempo

[0, T ], y ademas que∫ T

0ψ2(t) dt = 1. Al tener tres senales ortonormales, las senales se pueden

ubicar en una esfera de forma similar al cırculo obtenido en el espacio bidimensional. Ası, elcuadrado formado por QPSK puede reemplazarse por un cubo, en donde cada una de las senalesse ubicara en alguno de los 8 vertices. Entonces, al utilizar esta nueva base, las cuatro senalesoriginales quedan –por ejemplo– determinadas por

s1(t) =√E[+ψ(t) + ψ(t− T ) + ψ(t− 2T )]

s2(t) =√E[+ψ(t)− ψ(t− T )− ψ(t− 2T )]

s3(t) =√E[−ψ(t)− ψ(t− T ) + ψ(t− 2T )]

s4(t) =√E[−ψ(t) + ψ(t− T )− ψ(t− 2T )]

o equivalentemente, en notacion vectorial,

s1 =√E(+1,+1,+1)

s2 =√E(+1,−1,−1)

s3 =√E(−1,−1,+1)

s4 =√E(−1,+1,−1) ,

tal como lo muestra la Fig. 5.2. Ahora bien, la distancia Eucludiana entre esta nueva realizacionsera, en todos los casos, la diagonal de las caras. Como estas senales tienen una energıa E,entonces la distancia al origen de cada vertice sera

√E, por lo que la distancia cuadratica entre

senales serad2i,j = ||si − sj||2 = 8E, ∀i 6= j .

Para este caso, la energıa E se relaciona con la energıa por bit, al considerar que cada senaltransmite 2 bits y a su vez cada senal se representa por la combinacion de 3 senales base, luego2Eb = 3E; entonces E = 2Eb/3 = (2/3)(P/R), lo que implica que

d2i,j =

16

3

P

R, ∀i 6= j . (5.2)

Comparando las Ecuaciones (5.1) y (5.2), se puede observar que la distancia mınima se ha vistoaumentada por un factor de

d2i,j

d2QPSK

=163PR

4PR

=4

3.

Dado que la probabilidad de error es una funcion decreciente de la distancia Euclidiana mınima,se ha reducido la probabilidad de error al emplear este nuevo esquema. De hecho, se puede decir

104

Page 110: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

ψ(t)

ψ(t− T )

ψ(t− 2T )

s1

s2

s3

s4

Fig. 5.2: Codificacion en los vertices de un cubo para QPSK

que la disminucion resultante en la probabilidad de error es equivalente a la obtenida por unincremento de la potencia en un factor de 4

3, lo que se traduce en 1.25dB de ganancia de

potencia. Evidentemente esta ganancia no se logro gratis, ya que ahora durante la duracionde dos sımbolos, 2/R = 2T , se deben transmitir tres senales, reduciendo el tiempo disponiblede cada senal en un factor de 2

3lo que se traduce en un aumento de 3

2en el ancho de banda

requerido para la transmision. Un segundo problema que se obtiene con el esquema planteado,es que tiene que ser mucho mas elaborado y el esquema de decodificacion resulta mas complejo.

Los resultados anteriores ejemplifican lo que un codigo busca lograr: disminuır la probabili-dad de error (lo que es equivalente a una SNR efectiva mayor) al costo de incrementar el anchode banda y la complejidad del sistema. Sin embargo, es importante mencionar que existenesquemas de codificacion-modulacion que incrementan la distancia Euclidiana entre los codigosde palabra sin el costo del ancho de banda. En palabras mas simples, para el ejercicio previo,se realizo un mapeo de un espacio bidimensional (QPSK) a uno tridimensional, equivalente a:

(+1,+1) → (+1,+1,+1)

(+1,−1) → (+1,−1,−1)

(−1,−1) → (−1,−1,+1)

(−1,+1) → (−1,+1,−1)

en donde se puede observar que el rol de este mapeo es incluir un bit de paridad a los dos bits deinformacion. Esta paridad es agregada contal de que el numero de +1 en la palabra codificadasea siempre impar (o equivalentemente, que el numero de −1s sea un numero par).

En forma mas general, un esquema de codificacion de forma de onda toma secuencias delargo k = RT de la fuente y los mapea en secuencias de largo n de la forma

si =√E (±1,±1, . . . ,±1)︸ ︷︷ ︸

n

,

105

Page 111: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

en donde cada uno de estos puntos se ubican en los vertices de un hipercubo de distancia 2√E.

La razon entre k y n,

Rc =k

n,

es conocida como la tasa del codigo (code rate). Dado que se mapea en un espacio n-dimensional,existen 2n vertices posibles del hipercubo, de los cuales se deben elegir M = 2k vertices comocodigos de palabra. Evidentemente se quieren elegir aquellos 2k vertices que se encuentran lomas lejanos posibles entre sı, pues eso entrega una distancia Euclidiana grande, reduciendo asıla probabilidad de error. Para el caso anterior, se tenıa k = 2 y n = 3, y se eligen 2k = 4 puntosde los 23 = 8 posibles vertices que posee el cubo tridimensional. La tasa de dicho codigo es deRc = 2/3.

Asuma que se han elegido 2k vertices del hipercubo como codigos de palabra y que cadapalabra se encuentra al menos a una distancia de dHmin de las otras componentes. El parametrodHmin es llamada la distancia de Hamming mınima para el codigo. La distancia Hamming entredos codigos ci y cj es el numero de componentes en las cuales ambos codigos difieren, es decircuando un codigo es 1 y el otro es cero. La relacion que existe entre la distancia Euclidiana yla distancia Hamming se puede obtener mediante la relacion(

dEij)2

= 4dHijE ,

lo que significa que las distancias mınimas se pueden relacionar mediante(dEmin

)2= 4dHminE.

Asumiendo que se transmitio la senal si, se puede demostrar que la probabilidad de errorde codigo esta acotada por

PMi≤MQ

√4dHminE

2N0

≤ M

2exp

[−dHminE

N0

],

en donde se ha utilizado la cota propia de la funcion de coerror anteriormente definida. Notandoque el contenido de energıa de cada palabra del codigo es nE, y tiene que ser igual al productoPT , entonces como Eb = P/R se tiene

E =PT

n=RT

nEb =

k

nEb = RcEb ,

en donde Rc es la tasa del codigo. Entonces, como la cota no depende del valor de i, se tiene lacota general dada por

PM ≤M

2exp

[−dHminRcEb

N0

].

Ahora bien, de no haber utilizado codificacion –es decir se habrian utilizado los k vertices delhipercubo k-dimensional y no k vertices en un hipercubo n-dimensional– se tendrıa la siguienteprobabilidad de error

PM ≤M Q

(√2EbN0

)≤ M

2exp

[−EbN0

].

106

Page 112: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

Comparando estas dos cotas, se puede concluir que la ganancia en potencia obtenida con lacodificacion es equivalente a

G = dHmin Rc , (5.3)

que es conocida como ganancia asintotica del codigo, o, simplemente, ganancia del codigo. Engeneral, Rc < 1 y dHmin ≥ 1, por lo que la ganancia puede ser tanto menor como mayor a 1.Resulta obvio que pueden haber muchos codigos que generan buenas ganancias. La relacion quedefine la ganancia del codigo enfatiza que dados n y k, el mejor codigo sera aquel que genere ladistancia Hamming mas alta.

Con respecto al requerimiento de ancho de banda de la senal, se tiene que al no utilizarcodificacion la duracion de cada uno de los k sımbolos es T = 1/R, sin embargo cuando existecodificacion en dicho tiempo se tienen que enviar n pulsos, por lo que se produce una reducciondel tiempo por sımbolo de k/n = Rc. Ası, la razon de expansion del ancho de banda es dadopor

B =Wc

Wnc

=1

Rc

=n

k(5.4)

en donde Wc y Wnc representan los anchos de banda con y sin codigo respectivamente.Se puede demostrar que en un canal AWGN, existe una secuencia de codigos con parametros

(ni, ki) con un tasa fija (Rc = ki/ni , ∀i) que satisface la relacion

Rc <1

2log

(1 +

P

N0W

), (5.5)

en donde el lado derecho de la ecuacion es la capacidad del canal en bits por transmisionconforme a la Ecuacion (2.12). Para esta capacidad la probabilidad de error tiende a cero amedida que ni se vuelve cada vez mas grande.

En este curso se estudian las formas basicas de codificacion, dividiendo el estudio en codigospor bloques y convolucionales. En codificacion por bloque (como el ejemplo estudiado) lassecuencias de informacion se dividen en bloques de largo k, y cada uno de estos bloques semapea en bloques de largo n. Este mapeo es independiente del bloque anterior, por lo que notienen memoria. En codigos convolucionales, se utiliza un registro de desplazamiento de largok0L, como se muestra en la Fig. 5.3. Los k0 bits de informacion entran en el registro por vez;luego n0 bits que son una combinacion lineal de varios registros se transmiten por el canal.Estos n0 bits no solo dependen de los k0 bits recientes, sino tambien de los (L− 1)k0 anterioresen el registro que constituyen su estado. El numero de estados en un codigo convolucional es2(L−1)k0 y su tasa se define como Rc = k0/n0. La principal diferencia que existe entre los codigospor bloques y convolucionales es la existencia de memoria en estos ultimos.

Fig. 5.3: Codificador Convolucional

5.2 Codigos Lineales por Bloque

Un codigo de bloque (n, k) es una coleccion de M = 2k secuencias binarias, cada una de largon, llamadas palabras de codigos. Un codigo C consta de M palabras ci, para 1 ≤ i ≤ 2k. En

107

Page 113: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

sımbolos,C = c1, c2, . . . , cM ,

en donde cada ci es una secuencia de largo n con componentes iguales a 0 o 1. La coleccion depalabras se llama bloque del codigo o, simplemente, codigo.

Se dice que un codigo es lineal si la suma en modulo 2 de cualquiera de sus palabras, estambien una palabra. Es decir, si ci y cj son palabras del codigo, entonces ci⊕cj tambien debeser una palabra del codigo. Con esta definicion se puede notar que un codigo lineal por bloque esun subespacio k-dimensional de un espacio n-dimensional. Ademas, de esta definicion se derivaque la palabra compuesta solo de ceros (que se denotara por 0) es una palabra de cualquiercodigo lineal, dado que se puede escribir ci ⊕ ci para cualquier palabra ci. Si se considera quela secuencia de informacion x1 (de largo k) se mapea en la palabra de codigo c1 (de largo n),y que la secuencia de informacion x2 se mapea en la palabra de codigo c2, entonces x1 ⊕ x2 semapeara en c1 ⊕ c2.

Ejemplo 5.1 - Codido Lineal.Un codigo (5,2) es definido, por ejemplo mediante las siguientes palabras

C1 = 00000, 10100, 01111, 11011 ,

en donde el mapeo de la informacion se hace de la siguiente forma:

00 → 00000

01 → 01111

10 → 10100 (5.6)

11 → 11011 .

Es sencillo verificar el codigo es lineal, sin embargo el codigo dado por

C2 = 00000, 11100, 01111, 11011 ,

no lo es pues la suma de la segunda y tercera palabra no es una palabra del codigo.

Se entendera por distancia Hamming entre dos palabras del codigo ci y cj, como el numerode componentes a las cuales 2 palabras de codigo difieren, es decir el numero de componentesen donde una de las palabras es 1 y la otra es 0. La distancia Hamming sera denotada pord(ci, cj), a diferencia de la distancia Euclidiana en donde se hara la diferencia con el superındiceE, llamandola dE. La distancia mınima de un codigo, corresponde a la mınima distancia deHamming entre dos palabras diferentes, es decir

dmin = minci, cji 6= j

d(ci, cj) . (5.7)

El peso de Hamming o, simplemente, el peso de una palabra ci, corresponde al numerode unos en la palabra, y se denota por w(ci). Ademas se hablara del peso mınimo de un codigo

108

Page 114: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

como el valor mınimo de todos los pesos, sin incluir la palabra compuesta solo de ceros, 0.

wmin = minci 6=0

w(ci) (5.8)

Asuma un codigo lineal en donde c es una palabra de dicho codigo; luego no es dificilnotar que la relacion w(c) = d(c,0) es valida para cualquier palabra. Ademas si ci y cj sonpalabras del mismo codigo lineal y c = ci ⊕ cj entonces d(ci, cj) = w(c). Esto implica queen cualquier codigo lineal, correspondientemente a cualquier peso de una palabra, existe unadistancia Hamming entre dos palabras, y, correspondientemente a cualquier distancia Hamming,existe un peso de una palabra. En particular, esto demuestra que en cualquier codigo lineal,dmin = wmin.

5.2.1 Matrices de Generacion y Paridad

En un codigo lineal de (n, k) considere las secuencias de informacion e1 = (1000 · · · 0), e2 =(0100 · · · 0), e3 = (0030 · · · 0), . . . , ek = (0000 · · · 1) que se mapean en las palabras g1, g2, g3,. . . , gk, respectivamente, en donde cada gi es una secuencia binaria de largo n. Ahora, cualquiersecuencia de informacion x = (x1, x2, x3, . . . , xk) puede ser escrito de la forma

x =k∑i=1

xiei , (5.9)

por lo que cada una de las palabras del codigo en forma correspondiente seran

c =k∑i=1

xigi . (5.10)

Si se define la Matriz de Generacion para el codigo como

G4=

g1

g2

g3...gk

=

g11 g12 g13 · · · g1n

g21 g22 g23 · · · g2n

g31 g32 g33 · · · g3n...

......

. . ....

gk1 gk2 gk3 · · · gkn

(5.11)

entonces, de la Ecuacion (5.10), se puede escribir

c = xG (5.12)

en donde x es vector fila de k componentes, y G es la matriz de generacion, con dimensionesk×n. Esto demuestra que cualquier combinacion linear de las filas en la matriz de generacion esuna palabra del codigo. Notese que el rango de la matriz de generacion es k ya que por definicion,k es la dimension del subespacio. Dado que la matriz de generacion describe completamente uncodigo, entonces al conocerla, la estructura del encoder es realmente sencilla.

109

Page 115: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

Ejemplo 5.2 - Codigo Lineal y Matriz de Generacion.Determinar la matriz de generacion para el codigo C = 00000, 10100, 01111, 11011 y determinela secuencia de generacion de las palabras.Sol. Primero, es necesario determinar la linealidad del codigo. Para esto, se realiza la sumacomponente a componente. Entonces, como c1⊕ci = ci, ∀i y ci⊕ci = 0 = c1, solo resta evaluarlos siguientes elementos: c2⊕c3 = 11011 = c4, c2⊕c4 = 01111 = c3, y c3⊕c4 = 10100 = c2, porlo que el codigo es lineal. Dado el mapeo del codigo de la Ecuacion (5.6), se tiene que los valoresde g1 y g2 estan dados por los codigos de 10 y 01, vale decir 10100 y 01111 respectivamente.

Ası la matriz de generacion esta determinada por G =

[1010001111

]. Para las secuencias de

informacion (x1, x2), las palabras del codigo estan dadas por la relacion c = xG, que para esteejemplo sera (c1, c2, c3, c4, c5) = (x1, x2)G = [x1, x2, x1 ⊕ x2, x2, x2]T , lo que implica que c1 = x1,c2 = x2, c3 = x1 ⊕ x2, c4 = c5 = x2.

El codigo utilizado en el Ejemplo 5.2, posee la propiedad que la palabra correspondiente acada secuencia de informacion comienza con una replica de dicha secuencia seguida por bitsextras. Este tipo de codigos son llamados codigos sistematicos y los bits extras se les llama bitsde chequeo de paridad. Una condicion necesaria y suficiente para que un codigo sea sistematicoes que la matriz de generacion sea de la forma

G = [Ik | P ]

en donde Ik es la matriz identidad de dimension k×k y P es una matriz binaria de k× (n−k).En un codigo sistematico, se tiene

ci =

xi , 1 ≤ i ≤ k∑k

j=1 pjixj , k + 1 ≤ i ≤ n .

Por definicion un codigo lineal C es un subespacio de dimension k de un espacio de di-mension n. Del algebra lineal, se sabe que al tomar todas las secuencias de largo n que sonortogonales a todos los vectores del subespacio k-dimensional, el resultado sera un subespaciolineal de dimension (n− k) y que recibira el nombre de complemento ortogonal del subespaciode dimension k. Este nuevo subespacio (n − k)-dimensional define un nuevo codigo lineal de(n, n − k) que recibe el nombre de codigo dual del codigo (n, k) original y se denota por C >.Resulta evidente que las palabras del codigo original C y las del codigo dual C > son ortogonalesentre si. En particular, si se denota por H a la matriz de generacion del codigo dual, esta tendrauna dimension (n− k)× n, y cualquier palabra del codigo original sera ortogonal con todas lasfilas de H , es decir

cHT = 0, ∀ c ∈ C . (5.13)

La matriz H que es la matriz generadore del codigo dual C >, es llamada matriz de chequeode paridad del codigo original C . Dado que todas las filas de una matriz de generacion sonpalabras del codigo, se tiene que

GHT = 0 . (5.14)

110

Page 116: Apuntes de Comunicaciones Digitales

CAPITULO 5. INTRODUCCION A LA CODIFICACION

En el caso especial de codigos sistematicos, se puede demostrar que

H = [P T | In−k] . (5.15)

Ejemplo 5.3 - Matriz de Paridad.Encuentre la matriz de paridad del codigo utilizado en el Ejemplo 5.2.

Sol. Dado que G =

[1010001111

], se puede hacer la descomposicion en Ik =

[1001

]y P =[

100111

]. Entonces, al tomar la traspuesta P T =

110101

, se puede obtener H =

111000101001001

.

Ejemplo 5.4 - Ecuaciones de Paridad.Encuentre las ecuaciones de paridad para el Ejemplo 5.3.Sol. Las ecuaciones se obtienen de la Ecuacion (5.13), cHT = 0, luego se obtiene

c1 ⊕ c2 ⊕ c3 = 0

c2 ⊕ c4 = 0

c2 ⊕ c5 = 0 .

5.3 Codigos Convolucionales

111

Page 117: Apuntes de Comunicaciones Digitales

Libros de Referencia.

La informacion contenida en el presente texto, ha sido extraıda de variados textos escritosque posee en DIE, el Laboratorio de Transmision y simplemente yo. Toda la informacion acaexpresada tiene caracter netamente educacional y no pretende ser en ninguna forma un atentadocontra los derechos de copia ni de autor de cada uno de los libros que aca se citan. El contenidogrueso de esta obra es de autorıa de:

• “Fundamentals of Communication Systems”, John Proakis, Masoud Salehi. c© 2005,Pearson Education, Inc.

• “Introduccion a los Sistemas de Comunicaciones”, F. G. Stremler. c© 1993, Addi-son Wesley Iberoamericana, S.A.

• “Digital Communications - Fundamentals and Applications”, Bernard Sklar.c© 1998, Pretince-Hall Inc.

• “Elements of Information Theory”, Thomas Cover, Joy Thomas. c© 1999, JohnWiley & Sons, Inc.

• “Elementary Statistics”, Paul Hoel. c© 1976, John Wiley & Sons, Inc.

112