UNIVERSIDAD NACIONAL DEL CALLAO FACULTAD DE INGENIERÍA ELÉCTRICA Y … · 2017-04-25 · ......

73
UNIVER FACULTAD DE IN INSTITUTO DE INVESTIGACIÓN TEXTO: “PROB AUTOR: PERIODO DE EJECUCIÓN: RESOLUCIÓN: RSIDAD NACIONAL DEL CALLAO NGENIERÍA ELÉCTRICA Y ELECTRÓNIC DE LA FACULTAD DE INGENIERÍA ELÉCTRICA Y EL BABILIDADES Y PROCESOS ESTOCÁST EN INGENIERÍA” INFORME FINAL Lic. ADÁN ALMIRCAR TEJADA CA N: DEL 01-12-2010 AL 29-02-2012. R.R.Nº 1246-2010-R. CALLAO-LIMA-PERU FEBRERO 2012 CA LECTRÓNICA TICOS ABANILLAS.

Transcript of UNIVERSIDAD NACIONAL DEL CALLAO FACULTAD DE INGENIERÍA ELÉCTRICA Y … · 2017-04-25 · ......

UNIVERSIDAD NACIONAL DEL CALLAOFACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA

INSTITUTO DE INVESTIGACIÓN DE LA FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA

TEXTO: “PROBABILIDADES Y PROCESOS ESTOCÁSTICOSEN INGENIERÍA”INFORME FINAL

AUTOR: Lic. ADÁN ALMIRCAR TEJADA CABANILLAS.

PERIODO DE EJECUCIÓN: DEL 01-12-2010 AL 29-02-2012.

RESOLUCIÓN: R.R.Nº 1246-2010-R.

CALLAO-LIMA-PERU

FEBRERO 2012

UNIVERSIDAD NACIONAL DEL CALLAOFACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA

INSTITUTO DE INVESTIGACIÓN DE LA FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA

TEXTO: “PROBABILIDADES Y PROCESOS ESTOCÁSTICOSEN INGENIERÍA”INFORME FINAL

AUTOR: Lic. ADÁN ALMIRCAR TEJADA CABANILLAS.

PERIODO DE EJECUCIÓN: DEL 01-12-2010 AL 29-02-2012.

RESOLUCIÓN: R.R.Nº 1246-2010-R.

CALLAO-LIMA-PERU

FEBRERO 2012

UNIVERSIDAD NACIONAL DEL CALLAOFACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA

INSTITUTO DE INVESTIGACIÓN DE LA FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA

TEXTO: “PROBABILIDADES Y PROCESOS ESTOCÁSTICOSEN INGENIERÍA”INFORME FINAL

AUTOR: Lic. ADÁN ALMIRCAR TEJADA CABANILLAS.

PERIODO DE EJECUCIÓN: DEL 01-12-2010 AL 29-02-2012.

RESOLUCIÓN: R.R.Nº 1246-2010-R.

CALLAO-LIMA-PERU

FEBRERO 2012

i

INDICEPág.

I. RESUMEN……………………………………….…………………….….iv

II. INTRODUCCION………………………………………………………….v

III. PARTE TEÓRICA………………………………………………………..vi

CAPITULO I FUNDAMENTOS DE LA TEORÍA DE PROBABILIDAD1.1. Conceptos básicos……………………………………………..……….…11.2 Conjuntos y técnicas de conteo…………………………..………….….2

1.2.1 Conjuntos……………………………………………………….….21.2.2 Técnicas de conteo……………………………………………..…3

1.3Permutaciones y combinaciones…………………………….……….….41.3.1. Permutaciones……………………………….………..……….......41.3.2. Combinaciones………………………………………………..…6

1.4Probabilidades……………………………………………………….….….71.4.1 Probabilidad condicional e independencia……………….…....7

1.4.1.1 Independencia……………………………………………71.4.1.2 Probabilidad Condicional…………………………….....8

CAPITULO II VARIABLE ALEATORIA2.1 Aleatoriedad…………………………………………………….…..…..….102.2 Variable aleatoria…………………………………………….…..…….….10

2.2.1Variables aleatorias discretas………………………………...…112.2.1.1 Distribución uniforme……………………………….….112.2.1.2 Distribución binomial………………………………..…122.2.1.3 Distribución multinomial………………………..…..….142.2.1.4 Distribución hipergeométrica……………………….…152.2.1.5 Distribución multihipergeométrica…………………....162.2.1.6 Distribución de Poissón……………………………..…16

2.2.2 Variables aleatorias continúas…………………………………..182.2.2.1 Distribución normal o de Gauss………………………182.2.2.2 Distribución Gamma (Γ)……………………………......212.2.2.3 Distribución exponencial……………………..………..222.2.2.4 Distribución Chi-cuadrado…………………………..…222.2.2.5 Distribución T de Student…………………………...…242.2.2.6 Distribución F de Snedecor……………………..…….25

ii

CAPITULO III DISTRIBUCION DE PROBABILIDADES3.1 Función de probabilidad discreta o de cuantía……………………..…263.2 Función de probabilidad continua - Función de densidad…………..273.3 Distribución de probabilidad acumulada……………………………….28

CAPITULO IV VECTORES ALEATORIOS4.1 Vectores aleatorios…………………………………………….………….29

CAPITULO V PROCESOS ESTOCASTICOS5.1 Definición 1………………………………………………….…………….315.2 Definición 2………………………………………………………………..315.3 Definición 3………………………………………………………………..32

CAPITULO VI REPRESENTACION ESPECTRAL

6.1 Representación temporal………………………………………..………326.2 Representación frecuencial………………………………………..……33

6.2.1 Espectro………………………………………………………...…336.2.2 Espectro de potencia………………………….…………………33

6.3 Representación tiempo-frecuencia………………………………..…….34

CAPITULO VII ESTIMACION ESPECTRAL

7.1 Estimación espectral…………………………………..………………..…34

7.2 Estimación de la densidad espectral……………………………………35

CAPITULO VIII ENTROPIA

8.1 Definición…………………………………………………………………...35

8.2 Aplicaciones………………………………………………………….…….35

CAPITULO IX PROCESOS ESTACIONARIOS

9.1 Procesos estacionarios…………………………………………………..43

9.2 Procesos con incrementos estacionarios………………………….…..43

9.3 Proceso de Bernoulli (proceso bernoulliano de ensayos independientes)…………..43

9.4 Caminata Aleatoria (recorrido aleatorio de estado discreto y tiempo discreto)……..43

CAPITULO X ESTECTRO DE POTENCIA

10.1 Proceso Aleatorio……………………………………..………………..…45

10.2 Espectro de potencia…………………………………………..…………45

iii

10.2.1 Propiedades del espectro de potencia………………………….45

10.2.1.1 Simetría……………………………………………..….46

10.2.1.2 Positividad……………………………………….….…46

10.2.1.3 Potencia total……………………………………….…46

10.2.1.4Propiedades autovalores………………….…………46

10.3 Aplicaciones a las telecomunicaciones…………………………………..47

CAPITULO XI PROCESOS DISCRETOS EN EL TIEMPO

11.1 Tiempo discreto……………………………………………………….…….52

11.2 Variable discreta…………………………………………………………….52

11.3 Simulación de procesos en tiempo discreto…………………………..…52

CAPITULO XII PUNTOS DE POISSON Y RUIDO IMPULSIVO

12.1 Ruido impulsivo…………………………………………………………….54

12.2 Ruido blanco…………………………………………………………….….54

CAPITULO XIII PROCESOS CICLO ESTACIONARIOS

13.1 Sistemas Cerrados Estacionario……………………………………..…..56

IV MATERIALES Y MÉTODOS…….……………………............................vii

V RESULTADOS…………………………………………………..……….....vii

VI DISCUSIÓN………………………………………………………………...vii

VII REFERENCIA………………………………………………………….….viii

VIII APÉNDICE…………………………………………………………………ix

IX ANEXOS………………………………………………………………….…x

iv

I. RESUMEN

El objetivo fundamental del presente trabajo titulado “TEXTO: PROBABILIDADES Y PROCESOS

ESTOCASTICOS EN INGENIERIA”, eselaborar un texto adecuado con el propósito de brindar al estudiantado de

ingeniería los conocimientos de Probabilidades, variables aleatorias, significado de probabilidad, los axiomas de

probabilidad, pruebas repetidas, funciones de una variable aleatoria, vectores aleatorios, momentos y

distribuciones condicionales. Procesos estocásticos: conceptos generales, aplicaciones básicas, representación

espectral, estimación espectral, Estimación cuadrática media, entropía, tópicos selectos con sus respectivas

aplicaciones, con el propósito de satisfacer las necesidades y expectativas de los usuarios de esta bibliografía,

en cuanto a la formación básica en probabilidades, procesos estocásticos y sus aplicaciones de todas aquellas

personas que siguen las carreras profesiones de Ingeniería, para hacerlos diestros en Investigación en cualquier

campo laboral dentro de área profesional respectiva.

Mi intención al escribir este texto es que sirva como herramienta incluso de autoaprendizaje de las probabilidades

y procesos estocásticos con el apoyo de Software especializado en algunos casos, debido a que cuando se

desarrolla una investigación tendremos a la manos gran cantidad de datos, manipularlos a mano sería muy

tedioso.

Finalmente, los grandes beneficiados de este texto serán todos los estudiantes de estudios superiores de

Ingeniería y de todas las Especialidades en general, por tratarse de un ejemplar muy sencillo de entender,

comprender, aprender y manejar las técnicas estadísticas probabilísticas en cualquier trabajo de investigación

científica.

v

II.- INTRODUCCIÓN

El Proyecto de Investigación titulado TEXTO:“PROBABILIDADES Y PROCESOS ESTOCASTICOS EN INGENIERIA”

desarrollado observamos de la gran importancia que tiene, la justificación planteada en la investigación permite conocer la

temática sustancial mínima y su aplicación usando Programas estadísticos mediante la computadora usando el SPSS V

19,0 bajo la modalidad Windows, además de otros programas permitiendo de este modo llevar a cabo Investigación desde

el más mínimo nivel hasta el científico, permitiendo manipular datos o procesarlos en corto tiempo.

He alcanzado el objetivo general el cual era: “Desarrollar un Proyecto de Investigación sobre aplicaciones de la

probabilidad y procesos estocásticos en ingeniería, lo cual servirá como modelo de desarrollo de ejercicios tipos de

acuerdo a los avances tecnológicos e informáticos”.

Igualmente en la hipótesis que había planteado: “La elaboración del trabajoTEXTO: “Probabilidad Y Procesos

Estocásticos en Ingeniería”, permitirá ahondar los temas de probabilidades. variables aleatorias, distribución de

probabilidades, vectores aleatorios, procesos estocásticos, representación espectral, entropía, procesos estocásticos

estacionarios, espectro de potencia, procesos discretos en el tiempo, espectro de potencia y sistemas lineales, puntos de

Poisson y ruido impulsivo y por último procesos de ciclo estacionarios, cada uno de los cuales desarrollados en un capitulo

favoreciendo a los alumnos un aprendizaje sólido de la Asignatura; con el objeto de realizar Proyectos de Investigación

Científica de alto nivel académico de manera precisa y clara”, está plenamente demostrada.

vi

III.- PARTE TEÓRICA

1

III PARTE TEÓRICA

CAPITULO I: FUNDAMENTOS DE LA TEORÍA DE PROBABILIDAD

1.1. CONCEPTOS BÁSICOS

Las probabilidades son muy útiles, ya que pueden servir para desarrollar

estrategias. Por ejemplo, los inversionistas estarán más interesados en invertirse

dinero si las posibilidades de ganar son buenas. El punto central en todos estos

casos es la capacidad de cuantificar cuan probable es determinado evento. En

concreto decimos que las probabilidades se utilizan para expresar cuan probable

es un determinado evento.

La probabilidad clásica, el enfoque clásico o a priori de la probabilidad se basa en

la consideración de que los resultados de un experimento son igualmente

posibles.

Empleando el punto de vista clásico, la probabilidad de que suceda un evento se

calcula dividiendo el número de resultados favorables, entre el número de

resultados posibles.

La probabilidad clásica de un evento E, que denotaremos por P(E), se define

como el número de eventos elementales que componen al evento E, entre el

número de eventos elementales que componen el espacio muestral:

Probabilidad. Es el estudio de los fenómenos de los que no estamos seguros de

su ocurrencia.

Fenómeno. Es la ocurrencia de un hecho o suceso.

Experimento. Es un fenómeno observable perfectamente definido.

Los fenómenos observables se pueden clasificar en:

Deterministicos. Se puede predecir el resultado.

Aleatorios. No se puede predecir el resultado.

2

La probabilidad de que un evento ocurra está dada mediante un número que va

desde de 0 a 1,00.

1.1. CONJUNTOS Y TÉCNICAS DE CONTEO

1.1.1. ConjuntosConjunto es un grupo, una colección o una lista de objetos con características

comunes, a esos elementos se les llama miembros o elementos del conjunto.

Un conjunto debe estar bien definido, es decir, podrá determinarse si un elemento

dado pertenece o no al conjunto. De esta manera, si el conjunto está formado por

las estaciones del año, entonces primavera es un elemento del conjunto, pero

junio no lo es.

Un conjunto vacío, es el conjunto sin elementos que se denota por ó { }, por

ejemplo supóngase que en un grupo escolar la lista de los alumnos, ordenada

alfabéticamente por apellidos, inician con la letra P y terminan con la letra Z, si

queremos formar el conjunto A con los alumnos del grupo cuyo apellido empiecen

con la letra A, no tiene elementos = = { }

Un conjunto unitario es un conjunto que tiene un solo elemento. Por ejemplo, el

conjunto del satélite natural de la tierra = {luna}

La unión de dos eventos es el evento que está formado por todos los resultados

contenidos en cualquiera de los dos eventos. La unión se denota por E1 U E2

La intersección de dos eventos es el evento que está formado por los resultados

contenidos en ambos eventos. La intersección se denota E1 ∩ E2

El complemento de un evento en un espacio muestral es el conjunto de los

resultados en el espacio muestral que no están en el evento. Este componente

del evento E se denota por E’.

Los diagramas se utilizan con frecuencia para representar las relaciones entre

conjuntos, y también son muy útiles para describir relaciones entre eventos. Los

diagramas de Venn pueden emplearse para representar un espacio muestral y los

eventos contenidos en éste

Dos eventos E1 y E2 que no tienen resultados en común tienen una relación

importante. Dos eventos E1 y E2, tales que E1 ∩ E2 = , se dice que son

mutuamente excluyentes. Un evento E y su complemento E’, siempre son

mutuamente excluyentes.

3

Ejemplo 1Se analizan muestras de policarbonato plástico para determinar su resistencia a

las ralladuras y a los golpes. A continuación se presenta el resumen de los

resultados obtenidos con 49 muestras:

Resistencia a los golpes

Resistencia a las ralladuras

Alta Baja

Alta 40 4

Baja 2 3

Sean A: el evento “la muestra tiene una alta resistencia a los golpes”, y B: el

evento “la muestra tiene una alta resistencia a las ralladuras”. Determine el

número de muestras en A∩B, A’, B’, AUB, A’∩B, A’UB, dibujando el diagrama de

Venn para cada uno.

1.2.2 Técnicas de Conteo.

Diagrama de árbolUn diagrama de árbol es una representación gráfica de un experimento que

consta de r pasos, donde cada uno de los pasos tiene un número finito de

maneras de ser llevado a cabo.

4

Ejemplos:

1.- Un vendedor de autos quiere presentar a sus clientes todas las diferentes

opciones con que cuenta: auto convertible, auto de dos puertas, y auto de 4

puertas, cualquiera de ellos con rines deportivos o estándar ¿Cuántos diferentes

arreglos de autos y rines puede ofrecer el vendedor?

2. Un médico general clasifica a sus pacientes de acuerdo a: su sexo (masculino

o femenino), tipo de sangre (A, B, AB u O) y en cuanto a la presión sanguínea

(Normal, Alta o Baja). Mediante un diagrama de árbol diga en cuantas

clasificaciones pueden estar los pacientes de este médico.

3. En la prueba de tarjetas de circuito impreso. Cada tarjeta pasa o no pasa la

prueba. En una tarjeta que no pasa la prueba se hace una verificación adicional.

Si se representan cinco pruebas. Representa mediante un diagrama de árbol

espacio muestral de este experimento.

4. Un sistema de comunicación digital, cada mensaje se clasifica según llega o no

dentro del tiempo establecido por el diseño del sistema. Si se clasifican tres

mensajes, utilice un diagrama de árbol para representar el espacio muestral de

los posibles resultados.

1.3 PERMUTACIONES Y COMBINACIONES

1.3.1 Permutaciones

Permutación es todo arreglo de elementos en donde nos interesa el lugar oposición que ocupa cada uno de los elementos que constituyen dicho arreglo.

Para ver de una manera objetiva la diferencia entre una combinación y unapermutación, plantearemos cierta situación.

Suponga que un salón de clase está constituido por 35 alumnos.

5

a) El maestro desea que tres de los alumnos lo ayuden en actividades tales comomantener el aula limpia o entregar material a los alumnos cuando así seanecesario.

b) El maestro desea que se nombre a los representantes del salón (Presidente,Secretario y Tesorero).

Solución:

a) Suponga que por unanimidad se ha elegido a Daniel, Arturo y a Rafael paralimpiar el aula o entregar material, (aunque pudieron haberse seleccionado aRafael, Daniel y a Enrique, o pudo haberse formado cualquier grupo de trespersonas para realizar las actividades mencionadas anteriormente).

¿Es importante el orden como se selecciona a los elementos que forma el grupode tres personas?

Reflexionando al respecto nos damos cuenta de que el orden en este caso notiene importancia, ya que lo único que nos interesaría es el contenido de cadagrupo, dicho de otra forma, ¿quiénes están en el grupo? Por tanto, este ejemploes una combinación, quiere decir esto que las combinaciones nos permiten formargrupos o muestras de elementos en donde lo único que nos interesa es elcontenido de los mismos.

b) Suponga que se han nombrado como representantes del salón a Daniel comoPresidente, a Arturo como secretario y a Rafael como tesorero, pero resulta que aalguien se le ocurre hacer algunos cambios, los que se muestran a continuación:

CAMBIOS PRESIDENTE:Daniel ,Arturo, Rafael, Daniel

SECRETARIO:Arturo, Daniel, Daniel, Rafael

TESORERO:Rafael, Rafael, Arturo, Arturo

Ahora tenemos cuatro arreglos, ¿se trata de la misma representación?

Creo que la respuesta sería no, ya que el cambio de función que se hace a losintegrantes de la representación original hace que definitivamente cada una de las

6

representaciones trabaje de manera diferente, ¿importa el orden de los elementosen los arreglos?. La respuesta definitivamente sería sí, luego entonces lasrepresentaciones antes definidas son diferentes ya que el orden o la forma en quese asignan las funciones sí importa, por lo tanto es este caso estamos tratandocon permutaciones.

Notación:

Ejemplo. ¿Cuántos números de 5 c i f ras diferentes se puede

formar con los dígi tos: 1, 2, 3, 4, 5.?

m = 5, n = 5

Sí entran todos los e lementos. De 5 dígi tos entran sólo 3.

Sí importa e l orden. Son números dist intos e l 123, 231, 321.

No se repi ten los e lementos. El enunciado nos pide que las

ci f ras sean diferentes.

1.3.2 Combinaciones

Una combinación de objetos es un arreglo de éstos en el que el orden no importa.

Para encontrar el número de combinaciones de n objetos en grupos de r, se usa

la siguiente fórmula:

Ejemplo

Supongamos que se elegirá a tres miembros de una pequeña organización socialcon un total de diez miembros para que integren un comité. ¿Cuál es el número

6

representaciones trabaje de manera diferente, ¿importa el orden de los elementosen los arreglos?. La respuesta definitivamente sería sí, luego entonces lasrepresentaciones antes definidas son diferentes ya que el orden o la forma en quese asignan las funciones sí importa, por lo tanto es este caso estamos tratandocon permutaciones.

Notación:

Ejemplo. ¿Cuántos números de 5 c i f ras diferentes se puede

formar con los dígi tos: 1, 2, 3, 4, 5.?

m = 5, n = 5

Sí entran todos los e lementos. De 5 dígi tos entran sólo 3.

Sí importa e l orden. Son números dist intos e l 123, 231, 321.

No se repi ten los e lementos. El enunciado nos pide que las

ci f ras sean diferentes.

1.3.2 Combinaciones

Una combinación de objetos es un arreglo de éstos en el que el orden no importa.

Para encontrar el número de combinaciones de n objetos en grupos de r, se usa

la siguiente fórmula:

Ejemplo

Supongamos que se elegirá a tres miembros de una pequeña organización socialcon un total de diez miembros para que integren un comité. ¿Cuál es el número

6

representaciones trabaje de manera diferente, ¿importa el orden de los elementosen los arreglos?. La respuesta definitivamente sería sí, luego entonces lasrepresentaciones antes definidas son diferentes ya que el orden o la forma en quese asignan las funciones sí importa, por lo tanto es este caso estamos tratandocon permutaciones.

Notación:

Ejemplo. ¿Cuántos números de 5 c i f ras diferentes se puede

formar con los dígi tos: 1, 2, 3, 4, 5.?

m = 5, n = 5

Sí entran todos los e lementos. De 5 dígi tos entran sólo 3.

Sí importa e l orden. Son números dist intos e l 123, 231, 321.

No se repi ten los e lementos. El enunciado nos pide que las

ci f ras sean diferentes.

1.3.2 Combinaciones

Una combinación de objetos es un arreglo de éstos en el que el orden no importa.

Para encontrar el número de combinaciones de n objetos en grupos de r, se usa

la siguiente fórmula:

Ejemplo

Supongamos que se elegirá a tres miembros de una pequeña organización socialcon un total de diez miembros para que integren un comité. ¿Cuál es el número

7

de grupos diferentes de tres personas que pueden ser elegidos, sin importar eldiferente orden en el que cada grupo podría elegirse?

Solución

nCr =10C3 = n! = 10! =10×9x8×7!=10×9x8=720= 120

1.4 PROBABILIDADES

Las Probabilidades pertenecen a la rama de la matemática que estudia ciertos

experimentos llamados aleatorios, o sea regidos por el azar, en que se

conocen todos los resultados posibles, pero no es posible tener certeza de

cuál será en particular el resultado del experimento.

1.4.1 PROBABILIDAD CONDICIONAL E INDEPENDENCIA1.4.1.1 Independencia

Si se tienen 2 eventos A y B, se dice que son independientes si la probabilidad de

que uno de ellos suceda no depende de que el otro suceso ocurra o no ocurra.

Si los eventos son independientes se tiene:

p(AB) = p(A) . p(B)

p(ABC) = p(A). p (B). p(C)

P(A/B) = P(A), se lee “la probabilidad de A dado B, es igual a la probabilidad de A”

P(B/A) = P(B), se lee “la probabilidad de B dado A, es igual a la probabilidad de B”

1. La probabilidad de que una muestra de laboratorio contenga altos niveles

de contaminación es 0.10. Se analizan cinco muestras, esta son

independientes.

a) ¿Cuál es la probabilidad de que ninguna contenga altos niveles de

contaminación?

b) ¿Cuál es la probabilidad de que exactamente una contenga altos

niveles de contaminación?

Si los sucesos son dependientes, esto es que lo que ocurra después depende de

lo que haya ocurrido antes se obtiene:

p(AB) = p(A).p(B/A)

8

Se lee “probabilidad de que ocurran A y B (sucesivas o simultáneas) es igual a la

probabilidad de que ocurra A por la probabilidad de que ocurra B dado que ya

ocurrió antes A.”

1 La producción diaria de 850 partes contiene 50 que no satisfacen los

requerimientos del cliente. Del lote se eligen dos partes, sin reemplazo.

¿Cuál es la probabilidad de que la segunda parte sea defectuosa dado

que la primera lo es? 49/849

1.4.1.2 Probabilidad Condicional

La probabilidad del evento A dado que el evento B se ha presentado se llama

probabilidad condicional, se denota por p(A/B) y se define como:

Ejemplo: En una agencia de autos, las ventas de un mes, reportaron los

siguientes datos.

Rojos Blancos

Medianos 14 8

Grandes 10 18

Encuentre las siguientes probabilidades.

a) Comprar un auto mediano y blanco

b) Dado que se compró un auto blanco que sea grande

c) Dado que el auto es mediano que sea Rojo

Para encontrar las tres probabilidades que se piden, conviene hacer una tabla de

probabilidades.

Sólo tiene que calcular las probabilidades que se requieran

Rojos Blancos Total

Medianos 14 8 22

8

Se lee “probabilidad de que ocurran A y B (sucesivas o simultáneas) es igual a la

probabilidad de que ocurra A por la probabilidad de que ocurra B dado que ya

ocurrió antes A.”

1 La producción diaria de 850 partes contiene 50 que no satisfacen los

requerimientos del cliente. Del lote se eligen dos partes, sin reemplazo.

¿Cuál es la probabilidad de que la segunda parte sea defectuosa dado

que la primera lo es? 49/849

1.4.1.2 Probabilidad Condicional

La probabilidad del evento A dado que el evento B se ha presentado se llama

probabilidad condicional, se denota por p(A/B) y se define como:

Ejemplo: En una agencia de autos, las ventas de un mes, reportaron los

siguientes datos.

Rojos Blancos

Medianos 14 8

Grandes 10 18

Encuentre las siguientes probabilidades.

a) Comprar un auto mediano y blanco

b) Dado que se compró un auto blanco que sea grande

c) Dado que el auto es mediano que sea Rojo

Para encontrar las tres probabilidades que se piden, conviene hacer una tabla de

probabilidades.

Sólo tiene que calcular las probabilidades que se requieran

Rojos Blancos Total

Medianos 14 8 22

8

Se lee “probabilidad de que ocurran A y B (sucesivas o simultáneas) es igual a la

probabilidad de que ocurra A por la probabilidad de que ocurra B dado que ya

ocurrió antes A.”

1 La producción diaria de 850 partes contiene 50 que no satisfacen los

requerimientos del cliente. Del lote se eligen dos partes, sin reemplazo.

¿Cuál es la probabilidad de que la segunda parte sea defectuosa dado

que la primera lo es? 49/849

1.4.1.2 Probabilidad Condicional

La probabilidad del evento A dado que el evento B se ha presentado se llama

probabilidad condicional, se denota por p(A/B) y se define como:

Ejemplo: En una agencia de autos, las ventas de un mes, reportaron los

siguientes datos.

Rojos Blancos

Medianos 14 8

Grandes 10 18

Encuentre las siguientes probabilidades.

a) Comprar un auto mediano y blanco

b) Dado que se compró un auto blanco que sea grande

c) Dado que el auto es mediano que sea Rojo

Para encontrar las tres probabilidades que se piden, conviene hacer una tabla de

probabilidades.

Sólo tiene que calcular las probabilidades que se requieran

Rojos Blancos Total

Medianos 14 8 22

9

Grandes 10 18 28

Total 24 26 50

Dividimos cada celda entre el total y se obtiene la probabilidad correspondiente a

cada evento.

Rojos Blancos Total

Medianos 0.28 0.16 0.44

Grandes 0.2 0.36 0.56

Total 0.48 0.52 1

El cruce de cada fila y columna nos da la probabilidad de que ocurra uno y otro

evento. Por ejemplo, la probabilidad de que sean medianos y rojos es:

28.0)()y( RMPRMP

Al final de cada columna se tienen las probabilidades de que sean rojos o que

sean blancos. Por ejemplo, probabilidad de que sean blancos = 52.0)( BP

Al final de cada fila se tienen las probabilidades de que sean medianos o grandes.

Por ejemplo, probabilidad de grandes, 56.0)( GP

Con estos resultados se puede calcular probabilidad condicional.

Se debe de hacer la traducción del lenguaje oral al de probabilidades, esto es,

escribir la probabilidad condicional en forma de ecuación:

a) 16.0)( BMP

b) 86.052.0

36.0

)(

)()/(

BP

BGPBGP

c)64.0

44.0

28.0

)(

)()/(

MP

MRPMRP

10

CAPITULO II VARIABLE ALEATORIA

El objeto de la teoría de probabilidad es proporcionar un modelo matemático

adecuado a la descripción e interpretación de cierta clase de fenómenos

aleatorios. Vemos como se idealiza el estudio experimental de las distribuciones

de frecuencia relativas para variables aleatorias discretas y continuas; y sus

distribuciones acumuladas a través de un modelo teórico representativo de la

población de la cual provino la muestra. Se busca definir una función analítica que

dé el comportamiento matemático de esa variable aleatoria real ; sujeta a los

axiomas de probabilidad.

2.1 ALEATORIEDADLa aleatoriedad la produce un proceso o experimento aleatorio en si mismo, por

eso hablamos de experimento aleatorio. Una muestra aleatoria es el resultado de

un experimento aleatorio. Realizado el experimento, definido el , calculamos la

probabilidad de los sucesos. En la teoría de probabilidad no interesa sólo la

probabilidad de un suceso determinado sino el comportamiento general de todos

los sucesos posibles que resultan del experimento y conforman el . Es decir

que interesa la distribución de la masa de probabilidad. Esto nos conduce a la

definición de variable aleatoria y al estudio de sus funciones de probabilidad.

2.2 VARIABLE ALEATORIASea un experimento aleatorio ; y el espacio muestra asociado a él. Una

función X que asigna a cada uno de los elementos un número real x =

X(), se llama variable aleatoria.

Observación :en algunos casos es ya la característica numérica que queremos

estudiar X() = es la función identidad.

En general tenemos:

: espacio muestra del experimento .

Rx: valores posibles de X, llamado recorrido o campo de variación de la

variable aleatoria.

11

Ejemplos de variables aleatorias:

a.- Sea el experimento : arrojar dos dados = { (1,1) ; (1,2) ; (1,3) ;..................(6,6)}

X : suma de los puntos de los dos dados ;Rx = { 2 , 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 , 11 , 12 }

Y : diferencia entre los puntos de los dados; tomada en valor absoluto ;

Ry = { 0, 1, 2, 3, 4, 5 }b.- Sea el experimento : arrojar dos monedas

= { (c,c) ; (c,x) ; (x,c) ; (x,x) }

Interesa la cantidad de caras; Rx= { 0, 1, 2 }

La variable aleatoria X determina una relación de equivalencia entre y Rx ,existe un suceso en equivalente a cada suceso definido en Rx .

Dado un suceso B Rx , existe A , tal que A es equivalente con B, es decir:para todo x Rx , existe tal que X() = x .

Ejemplo:Consideremos el experimento de arrojar dos monedas

= { (c,c) ; (c,x) ; (x,c); (x,x) }

Sea el suceso A = se obtiene una cara A = { (c,x) ; (x,c) }P(A) = 1/4 + 1/4 = 1/2

Rx = {0 , 1 , 2 } B = { 1 } P(B) = 1/2

2.2.1 VARIABLES ALEATORIAS DISCRETASSi el número de valores posibles de la variable X es finito o infinitonumerable, ésta será una variable discreta. EntoncesRx = { x1 , x2 , x3 ,...,.xn } ó Rx = { x1 , x2 , x3 ,....... }

2.2.1.1 Distribución uniforme

La distribución uniforme es la que corresponde a una variable que tomatodos sus valores, x1, x2... ,xk, con igual probabilidad; el espacio muestral debe serfinito.

Si la variable tiene k posibles valores, su función de probabilidad sería:

Rx

12

donde k es el parámetro de la distribución (un parámetro es un valor que sirvepara determinar la función de probabilidad o densidad de una variable aleatoria)

La media y la varianza de la variable uniforme se calculan por lasexpresiones:

El histograma de la función toma el aspecto de un rectángulo, por ello, ala distribución uniforme se le suele llamar distribución rectangular.

2.2.1.2 Distribución binomial

La distribución binomial es típica de las variables que proceden de unexperimento que cumple las siguientes condiciones:

1) El experimento está compuesto de n pruebas iguales, siendo n un númeronatural fijo.

2) Cada prueba resulta en un suceso que cumple las propiedades de lavariable binómica o de Bernouilli, es decir, sólo existen dos posiblesresultados, mutuamente excluyentes, que se denominan generalmentecomo éxito y fracaso.

13

3) La probabilidad del ‚éxito (o del fracaso) es constante en todas laspruebas. P(éxito) = p ; P(fracaso) = 1 - p = q

4) Las pruebas son estadísticamente independientes,

En estas condiciones, la variable aleatoria X que cuenta el número de‚éxitos en las n pruebas se llama variable binomial. Evidentemente, el espaciomuestral estar compuesto por los números enteros del 0 al n. Se suele decir queuna variable binómica cuenta objetos de un tipo determinado en un muestreo de nelementos con reemplazamiento.

La función de probabilidad de la variable binomial se representa comob(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p son losparámetros de la distribución.

La manera más fácil de calcular de valor de números combinatorios, comolos incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia

La media y la varianza de la variable binomial se calculan como:

14

Media = μ = n p

Varianza = σ2 = n p q

Gráficamente el aspecto de la distribución depende de que sea o nosimétrica Por ejemplo, el caso en que n = 4:

2.2.1.3 Distribución multinomial

La distribución multinomial es esencialmente igual a la binomial con laúnica diferencia de que cada prueba tiene más de dos posibles resultadosmutuamente excluyentes.

Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas(pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipoobtenidos en n pruebas independientes tiene distribución multinomial.

La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. serepresenta como:

Los parámetros de la distribución son p1,..., pK y n.

15

2.2.1.4 Distribución hipergeométrica

Una variable tiene distribución hipergeométrica si procede de unexperimento que cumple las siguientes condiciones:

1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjuntofinito de N objetos.

2) K de los N objetos se pueden clasificar como ‚éxitos y N - K comofracasos.

X cuenta el número de ‚éxitos obtenidos en la muestra. El espaciomuestral es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n.

En este caso, la probabilidad del ‚éxito en pruebas sucesivas no esconstante pues depende del resultado de las pruebas anteriores. Por tanto, laspruebas no son independientes entre sí.

La función de probabilidad de la variable hipergeométrica es:

Los parámetros de la distribución son n, N y K.

Los valores de la media y la varianza se calculan según las ecuaciones:

Si n es pequeño, con relación a N (n << N), la probabilidad de un ‚éxito variar muypoco de una prueba a otra, así pues, la variable, en este caso, es esencialmentebinomial; en esta situación, N suele ser muy grande y los números combinatoriosse vuelven prácticamente inmanejables, así pues, la probabilidades se calculanmás cómodamente aproximando por las ecuaciones de una binomial con p = K /N.

La media de la variable aproximada (μ = n p = n (K / N)) es la misma que lade la variable antes de la aproximación; sin embargo, la varianza de la variablebinomial es ligeramente superior a la de la hipergeométrica.

16

el factor por el que difieren ser siempre menor que 1 y tan próximo a 1como cierto sea que n << N.

El aspecto de la distribución es bastante similar al de la binomial. Comoejemplo, mostramos los casos análogos a los de las binomiales del apartadoanterior (p inicial = 0,25 y n = 4)

2.2.1.5 Distribución multihipergeométrica

Este variable se define igual que la hipergeométrica con la únicadiferencia de que se supone que el conjunto de objetos sobre el que se muestrease divide en R grupos de A1, A2,..., AR objetos y la variable describe el número deobjetos de cada tipo que se han obtenido (x1, x2,..., xR)

Esta situación es análoga a la planteada en el caso de la distribuciónmultinomial. La función de probabilidad es:

2.2.1.6 Distribución de Poissón

Una variable de tipo Poisson cuenta ‚éxitos (es decir, objetos de un tipodeterminado) que ocurren en una región del espacio o del tiempo.

El experimento que la genera debe cumplir las siguientes condiciones:

17

1. El número de éxitos que ocurren en cada región del tiempo o delespacio es independiente de lo que ocurra en cualquier otro tiempoo espacio disjunto del anterior.

2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño esproporcional al tamaño de este y no depende de lo que ocurra fuerade él.

3. La probabilidad de encontrar uno o más ‚éxitos en una región deltiempo o del espacio tiende a cero a medida que se reducen lasdimensiones de la región en estudio.

Como consecuencia de estas condiciones, las variables Poisson típicasson variables en las que se cuentan sucesos raros.

La función de probabilidad de una variable Poisson es:

El parámetro de la distribución es λ que es igual a la media y a la varianzade la variable.

Esta característica puede servirnos para identificar a una variable Poissonen casos en que se presenten serias dificultades para verificar los postulados dedefinición.

La distribución de Poisson se puede considerar como el límite al que tiendela distribución binomial cuando n tiende a y p tiende a 0, siendo np constante (ymenor que 7); en esta situación sería difícil calcular probabilidades en unavariable binomial y, por tanto, se utiliza una aproximación a través de una variablePoisson con media l = n p.

La varianza de la variable aproximada es ligeramente superior a la de lavariable binomial.

Las variables Poisson cumplen la propiedad de que la suma de variablesPoisson independientes es otra Poisson con media igual a la suma las medias.

El aspecto de la distribución depende muchísimo de la magnitud de lamedia. Como ejemplo, mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ= 1,5 (arriba a la derecha) y λ = 5 (abajo) Obsérvese que la asimetría de ladistribución disminuye al crecer λ y que, en paralelo, la gráfica empieza a tener unaspecto acampanado.

18

2.2.2 VARIABLES ALEATORIAS CONTINUAS

Si el recorrido de la variable X es un intervalo real cuyos extremos puedenser -∞ y +∞ ; ésta será una variable aleatoria continua.Entonces Rx = ( a , b ) óRx = (-∞ , +∞ ) óRx = ( a , +∞ ) óRx = ( -∞ , b )

Tanto para variables aleatorias discretas o continuas podemos asociar valoresde probabilidad.

P( X = xi ) = P( suceso : X toma el valor xi )P( c< X < d ) = P( suceso : X toma cualquier valor en el intervalo)P( X xo ) = P( suceso : X toma valores menores o iguales que xo )

2.2.2.1 Distribución normal o de Gauss

La distribución normal fue definida por De Moivre en 1733 y es ladistribución de mayor importancia en el campo de la estadística.

Una variable es normal cuando se ajusta a la ley de los grandes números,es decir, cuando sus valores son el resultado de medir reiteradamente unamagnitud sobre la que influyen infinitas causas de efecto infinitesimal.

19

Las variables normales tienen una función de densidad con forma decampana a la que se llama campana de Gauss.

Su función de densidad es la siguiente:

Los parámetros de la distribución son la media y la desviación típica, μ y σ,respectivamente. Como consecuencia, en una variable normal, media ydesviación típica no deben estar correlacionadas en ningún caso (comodesgraciadamente ocurre en la inmensa mayoría de las variables aleatorias realesque se asemejan a la normal.

La curva normal cumple las siguientes propiedades:

1) El máximo de la curva coincide con la media.

2) Es perfectamente simétrica respecto a la media (g1 = 0).

3) La curva tiene dos puntos de inflexión situados a una desviación típica dela media. Es convexa entre ambos puntos de inflexión y cóncava en ambascolas.

4) Sus colas son asintóticas al eje X.

20

Para calcular probabilidades en intervalos de valores de la variable,habría que integrar la función de densidad entre los extremos del intervalo. pordesgracia (o por suerte), la función de densidad normal no tiene primitiva, esdecir, no se puede integrar. Por ello la única solución es referirse a tablas de lafunción de distribución de la variable (calculadas por integración numérica) Estastablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría unacomplejidad enorme.

Afortunadamente, cualquier que sea la variable normal, X, se puedeestablecer una correspondencia de sus valores con los de otra variable condistribución normal, media 0 y varianza 1, a la que se llama variable normaltipificada o Z. La equivalencia entre ambas variables se obtiene mediante laecuación:

La función de distribución de la variable normal tipificada está tabulada y,simplemente, consultando en las tablas se pueden calcular probabilidades encualquier intervalo que nos interese.

De forma análoga a lo pasaba con las variables Poisson, la suma devariables normales independientes es otra normal.

21

Histograma de una normal idealizada Histograma de una muestra de unavariable normal

2.2.2.2 Distribución Gamma (Γ)

La distribución gamma se define a partir de la función gamma, cuyaecuación es:

La función de densidad de la distribución gamma es:

α y β son los parámetros de la distribución.

La media y la varianza de la variable gamma son:

22

2.2.2.3 Distribución exponencial

Es un caso particular de la distribución gamma cuando α = 1. Su funciónde densidad es:

Su parámetro es β.

La media y la varianza de la distribución exponencial son:

2.2.2.4 Distribución Chi-cuadrado

Es otro caso particular de la distribución gamma para el caso β = 2 y α = n/ 2, siendo n un número natural.

Su función de densidad es:

23

El parámetro de la distribución es y su media y su varianza son,respectivamente:

Otra forma de definir la distribución es la siguiente: Supongamos quetenemos n variables aleatorias normales independientes, X1,..., Xn, con media μi y

varianza (i = 1 ... n), la variable definida como

tiene distribución con n grados de libertad y se le denomina n.

Variables chi-cuadrado con valores de progresivamente

mayores son cada vez menos asimétricas.

24

2.2.2.5 Distribución T de Student

Supongamos dos variables aleatorias independientes, una normaltipificada, Z , y otra con distribución con grados de libertad, la variabledefinida según la ecuación:

tiene distribución t con grados de libertad.

La función de densidad de la distribución t es:

El parámetro de la distribución t es , su número de grados de libertad.

Esta distribución es simétrica respecto al eje Y y sus colas se aproximanasintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y,por tanto, más aplanada.

Cuando n tiende a infinito, t tiende asintóticamente a Z y se puedenconsiderar prácticamente iguales para valores de n mayores o iguales que 30..

25

Variables T con valores de progresivamente mayores

son cada vez menos platicúrticas

Comparación entre la variable T y la normal tipificado.

2.2.2.6 Distribución F de Snedecor

Sean U y V dos variables aleatorias independientes con distribución con 1 y 2 grados de libertad, respectivamente. La variable definida según laecuación:

tiene distribución F con 1, 2 grados de libertad.

La función de densidad de la distribución F es:

26

Los parámetros de la variable F son sus grados de libertad 1 y 2.

Las distribuciones F tienen una propiedad que se utiliza en la construcciónde tablas que es la siguiente:

Llamemos f1,2 al valor de una distribución F con 1 y 2 grados delibertad que cumple la condición, P(F > f1,2) = α; llamemos f1,2 al valor deuna distribución F con 1 y 2 grados de libertad que cumple la condición, P(F >f1,2) = 1- α. Ambos valores están relacionados de modo que uno es el inversodel otro.

Variables F con distintos valores de 1, 2

CAPITULO III DISTRIBUCION DE PROBABILIDADES

3.1 FUNCIÓN DE PROBABILIDADDISCRETA O DE CUANTÍA

Llamamos función de probabilidad discreta o función de cuantía o función

de probabilidad puntual correspondiente a la variable aleatoria X a la

27

colección de pares [ x , p(x)] ; donde las probabilidades p(x)= P(X= x)

verifican :

a.- p(x) 0 x R

b.- p(x) = 1

Esta distribución se representa a través de un gráfico de bastones:

0 1 2 x

p(x)

n

Interpretación física:Si consideramos al eje real como una barra; podemos suponer que por sobre

cada punto de abscisa x hay aplicada una masa puntual P[ X = x ] = p(x ).Además la masa total de probabilidad es igual a uno.

Observaciones:- Supóngase que la variable discreta puede tomar un número finito de valores x1,x2 , x3,...., xn; si cada resultado es igualmente probable p(x1 ) = p(x2 )=.....=p(xn )= 1/n .- Si X toma un número infinito no numerable es imposible que todos los resultadossean equiprobables, pues no satisface la condición de cierre ; p(x ) = 1

Ejemplo:Sea : un jugador arroja 3 monedas; gana $2 por cada cara que aparece ypierde $2 por cada cruz.

= { (ccc); (ccx); (cxx); (xxx); (xcc); (xxc); (cxc); (xcx) }Al jugador le interesa la ganancia o pérdida que el punto muestra le representa..

La variable aleatoria se define:X :Rx

X= ganancia del jugador. P()= 1/8P(ganar 6) = P(x=6) = P( = ccc) = 1/8P(ganar 2) = P(x=2) = P ( { cxc , xcc , ccx }) = 3/8

3.2 FUNCIÓN DE PROBABILIDAD CONTINUA–FUNCIÓN DE DENSIDADDada una variable aleatoria continua X; se llama función de densidad deprobabilidad de X a f(x) si existe tal que satisfagan las siguientes condiciones:a.- f(x) 0 para todo x

28

b.- f x dxR

( ). 1

Nota: f(x) no indica probabilidad. Sólo indica cómo se distribuye la masa deprobabilidad dentro del recorrido de la variable. Geométricamente, P( a< X < b)= 1 es el área bajo la curva f(x).

a b x

f(x)

f(x) = 0 f(x) = 0

3.3 DISTRIBUCIÓN DE PROBABILIDAD ACUMULADASea X una variable aleatoria discreta, definimos F(x) como función de

distribución acumulada de la variable aleatoria X a :F(x ) = P( X x ). Si X esuna variable aleatoria discreta la gráfica es una función escalonada con tramoscontinuos y un número finito o infinito numerable de saltos correspondiente a losvalores de X = x1 ,x2 ,....xn

P X x p xk ii

k

( ) ( )

1

0 1 2 n

1

F(x)F(x) =1

F(x) = 0

x

Si X es una variable aleatoria continua su función de distribución acumulada es elvalor del área bajo la curva f(x) a la izquierda de x.

F x P X x f s dsx

( ) ( ) ( )

F(x)

Título del eje

29

Propiedades de F(x)1.- F(x) 0 , x R ( no negatividad )

2.- x1< x2 F(x1 ) F(x2 ) ( no decreciente )

3.- 0 F(x) 1

4.- Si F(x) es la función de distribución de una variable aleatoria continua,

entoncesF x

xf x

( )( ) x donde F(x) es diferenciable, siendo f(x) la función

de densidad de la variable.

5.- x1 < x2 F(x2 ) - F(x1 ) = P( x1 < x x2 )

CAPITULO IV VECTORES ALEATORIOS

En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesaanalizar varias características simultáneamente, como por ejemplo la velocidadde transmisión de un mensaje y la proporción de errores. De esta forma seremoscapaces de estudiar no solo el comportamiento de cada variable por separado,sino las relaciones que pudieran existir entre ellas.

4.1 VECTOR ALEATORIO

El concepto de vector aleatorio nace como una generalización natural de la nociónde variable aleatoria, al considerar simultáneamente el comportamiento aleatoriode varias características asociadas a un experimento.

Ejercicio1.

Sean U1, U2, … Un vectores aleatorios Np independientes e igualmentedistribuidos.

Sean V1 y V2 sendas combinaciones lineales de U1, U2, … Un :

V1= b1U1 + b2U2 + … + bn UnV2= c1U1 + c2U2 + … + cn Un

Notaremos por B y C los vectores de los coeficientes reales: B =

1

2

n

b

b

b

y C =

1

2

n

c

c

c

Demostrar que V1 y V2 son independientes si y solo si Bt C = 0

30

Ejercicio2.

Sea X=

1

2

3

4

X

X

X

X

un v.a. Normal de media =

1

2

3

4

y dispersión

2 -1 1 3

-1 1 0 -2

1 0 1 1

3 -2 1 5

.

a) Dar la ley de1

3

X

X

sabiendo que X2 =1.

b) A partir de ella y de la tabla de función de distribución de la N(0,1),

calcula la probabilidad condicionada p( X12 + X32 < 1 / X2 =1)

CAPITULO V PROCESOS ESTOCASTICOS

La teoría de los procesos estocásticos se centra en el estudio y modelización de

sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas

leyes no determinísticas, esto es, de carácter aleatorio.

La forma habitual de describir la evolución del sistema es mediante sucesiones o

colecciones de variables aleatorias. De esta manera, se puede estudiar cómo

evoluciona una variable aleatoria a lo largo del tiempo. Por ejemplo, el número de

personas que espera ante una ventanilla de un banco en un instante t de tiempo;

el precio de las acciones de una empresa a lo largo de un año.

La primera idea básica es identificar un proceso estocástico con una sucesión de

variable aleatoria {Xn, n ∈ N} donde el subíndice indica el instante de tiempo (o

espacio) correspondiente.

Esta idea inicial se puede generalizar fácilmente, permitiendo que los instantes de

tiempo en los que se definen las variables aleatorias sean continuos. Así, se

podrá hablar de una colección o familia de variables aleatorias {Xt, t ∈ R}, que da

una idea más exacta de lo que es un proceso estocástico.

Se tenía que una v.a. X(s) es una función que va desde un espacio muestral S a

la recta real, de manera que a cada punto s ∈ S del espacio muestral se le puede

asociar un número de la recta real.

De este modo, la probabilidad de cada suceso de S se puede trasladar a la

probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o conjunto de

números reales. Si a todo esto se le añade una dimensión temporal, se obtiene un

proceso estocástico.

31

En general trabajamos con procesos estocásticos en cualquier caso en queintentamos ajustar un modelo teórico que nos permita hacer predicciones sobre elcomportamiento futuro de un proceso. Un ejemplo particularmente importante loproporcionan las denominadas “Series de Tiempo” o “Series Temporales”, queregistran observaciones de determinado proceso en función del tiempo.

5.1 Definición 1Se denomina proceso aleatorio o estocástico a toda variable que evoluciona alo largo del tiempo de forma total o parcialmente aleatoria. Un ejemplo, Fig.1 es latemperatura en Madrid, aumenta durante el día y baja durante la noche; aumentaen el verano y desciende mucho en invierno (“nueve meses de invierno y tres deinfierno”, que se dice del clima castellano); su variación es parcialmentedeterminística y parcialmente aleatoria.

Figura 1: Temperaturas máximas y mínimas en Madrid

5.2 Definición 2Esel conjunto de funciones temporales que resultan de un experimento particular,es decir, cada vez que se realiza el experimento, se produce como salida unadeterminada señal. La aleatoriedad radica en saber cual de todas las funcionessaldrá.Fig.2. Además, en cada instante de tiempo tk, se puede definir una variablealeatoria que podría llamarse xtk. Queda claro que la diferencia fundamental entreuna variable aleatoria y un proceso aleatorio es la dependencia con la variabletiempo.

Figura 2: Procesos Estocásticos

32

Ejemplo: suponga un proceso estocástico definido como x(t)=at donde a estáuniformemente distribuida entre 0 y 1. Cada vez que se realiza el experimento, lasalida es una recta de pendiente diferente. Para un tiempo dado, digamos t=t0, setendrá una v.a xt0= at0, que puede tomar valores entre 0 y t0. Una forma decaracterizar el proceso x(t) es a través de la definición de una función conjunta deinfinitas variables aleatoria correspondientes a tiempos distintos tk.

5.3 Definición 3Es una colección de variables aleatorias {Xt : t ∈ T} parametrizada por unconjunto T llamado espacio parametral y con valores en un conjunto S llamadoespacio de estados (conjunto de posibles valores que pueden tomar las variablesaleatorias {Xt}t∈R).Fig.3

Figura 3: Proceso Estocástico

Nota: en general, se piensa en el subíndice t como el indicativo del tiempo y en Xt como elestado o posición del proceso estocástico en el instante t.

CAPITULO VI REPRESENTACION ESPECTRAL

6.1 REPRESENTACIÓN TEMPORALUn método simple de representación de una señal sonora es dibujarla enunagráfica dependiente del tiempo. Esta representación se denominarepresentaciónen el dominio temporal (o time domainrepresentation).

En este caso, representamosla evolución de la amplitud (de la magnitud quemedimos: presión,voltaje, etc) respecto al tiempo. En el caso del sonido, laamplitud representa lavariación de la presión atmosférica respecto al tiempo. Engeneral, la amplitudse representa a partir del valor 0 (posición de equilibrio o valormedio de lapresión) hasta el punto de máxima amplitud de la forma de onda.Fig 4.

33

Figura 4: Representación de una señal en el dominio temporal.

6.2 REPRESENTACIÓN FRECUENCIAL

La representación frecuencial captura las características espectrales de unaseñalde audio. Además de la frecuencia fundamental, existen muchasfrecuenciaspresentes en una forma de onda. Una representación en el dominiofrecuencial(o frequencydomainrepresentation) o representación espectral muestrael contenidofrecuencial de un sonido. Las componentes de frecuencias individualesdelespectro pueden denominarse harmónicos o parciales. Las frecuencias armónicasson enteros simples de la frecuencia fundamental. Cualquier frecuenciapuededenominarse parcial, sea o no múltiplo de la frecuencia fundamental. Dehecho,muchos sonidos no tienen una fundamental clara.El contenido frecuencial de un sonido puede mostrarse de diversas maneras.Unaforma estándar es la de dibujar cada parcial como una línea en el eje x.La altura de cada línea correspondería a la fuerza o amplitud de cadacomponentefrecuencial. Una señal sinusoidal pura viene representada por unasolacomponente frecuencial.

6.2.1 EspectroEl espectro de una señal es una representación en el dominio de la frecuenciaque viene dada por la evolución de la amplitud y de la fase respecto alafrecuencia.

6.2.2 Espectro de potencia

Del espectro de amplitud se puede derivar el espectro de potencia(powerspectrum). Generalmente, se define la potencia de una señal como elcuadradode la amplitud de dicha señal. Por tanto, el espectro de potencia sería elcuadradodel espectro de amplitud. La potencia espectral está más correlacionadaconla percepción humana de la intensidad, y por ello es útil esta representación.

34

6.3 REPRESENTACIÓN TIEMPO-FRECUENCIAEl espectro cambia constantemente, por lo que las gráficas mencionadasanteriormenterepresentan sólo una porción de sonido que se ha analizado.Unagráfica que represente la variación del espectro a lo largo del tiempo nos daunaidea de la evolución de la amplitud de las distintas frecuencias a lo largodeltiempo. Esta gráfica puede dibujarse de forma tridimensional, representandolosdistintos espectros a lo largo del tiempo.

En gráficos de computadora, representación espectral es donde el transporteligero de una escena se modela con longitudes de onda verdaderas. Este procesoes típicamente mucho más lento que la representación tradicional, que rinde laescena en sus componentes rojos, verdes, y azules y después sobrepone lasimágenes. La representación espectral es de uso frecuente adentro trazo del rayoo el trazo del fotón a simule más exactamente la escena, para la comparación conuna fotografía real para probar a menudo el algoritmo de representación (como ena Caja de Cornell) o simular diversas porciones de espectro electromagnético conel fin de trabajo científico. Las imágenes simuladas no son necesariamente másrealistas el aparecer; sin embargo, cuando está comparado a un pixel verdaderode la imagen para el pixel, el resultado está a menudo mucho más cercano.

La representación espectral puede también simular fuentes de luz y se opone máscon eficacia, como la luz espectro de emisión puede ser utilizado lanzar losfotones en una longitud de onda particular en proporción con el espectro. Lascurvas espectrales de la reflexión de los objetos se pueden utilizarsemejantemente para reflejar ciertas porciones del espectro más exactamente.

Como ejemplo, ciertas características de tomates hacen que aparecendiferentemente bajo luz del sol que bajo luz fluorescente. El usar radiación delblackbody las ecuaciones para simular luz del sol o el espectro de emisión de unbulbo fluorescente conjuntamente con la curva espectral de la reflexión deltomate, imágenes más exactas de cada panorama pueden ser producidas.

CAPITULO VII ESTIMACION ESPECTRAL

7.1 ESTIMACION ESPECTRAL

Consideramos la estimación de la densidad espectral de potencia de unproceso aleatorio estacionario en sentido amplio (WSS). El espectro de potenciaes la transformada de Fourier de la secuencia de autocorrelación. Por tanto,estimar el espectro de potencia es equivalente a estimar la autocorrelación.

Para un proceso ergódico en autocorrelación,

35

Así, si conocemos x(n) para todo n, para estimar el espectro únicamentetendremos que calcular la secuencia de autocorrelaciónrx(k) y posteriormentehallar la transformada de Fourier. Pero existen dificultades en este proceso. Porejemplo, la cantidad de datos disponible no es ilimitada y, en muchos casos,puede que dispongamos de un conjunto de datos pequeño e insuficiente. Otroproblema añadido es que la señal puede estar contaminada con ruido o con unaseñal interferente. Por tanto, la estimación espectral implica estimar Sx(ejw) a partirde un número finito de medidas ruidosas de x(n).

Las técnicas de estimación espectral pueden catalogarse atendiendo al siguientecriterio:

1.7.1 Métodos clásicos o no paramétricos.

Estiman la secuencia de autocorrelaciónrx(k) a partir de un conjunto dedatos. Calculando la transformada de Fourier de la secuencia deautocorrelación estimada se obtiene una estimación del espectro.

1.7.2 Métodos clásicos o paramétricos

Utilizan un modelo del proceso para estimar el espectro de potencia.

7.2 ESTIMACIÓN DE LA DENSIDAD ESPECTRAL

Un problema muy común y con grandes aplicaciones prácticas enprocesado de señal es el de estimar la densidad espectral de potencia deuna señal aleatoria estacionaria. Decimos "estimar" puesto que, como laseñal es un proceso estocástico (estacionario) dada la naturalezaestocástica del mismo no es posible determinar con absoluta precisión suDEP a no ser que dispongamos de un registro de señal infinito, lo cual noes posible.

Las técnicas de estimación se dividen en dos grandes grupos:

No Paramétricas. Están basadas siempre de una u otra forma en elcálculo del periodograma. Calcular la transformada de fourier (en unordenador es la DFT) de un registro de señal para estimar su espectroes un ejemplo de técnica no paramétrica.

Paramétricas. Consisten en suponer un determinado modelo para elproceso estocástico (modelos AR, MA, ARMA, etc) y en la estimaciónde los parámetros de estos modelos mediante técnicas de predicciónlineal (filtrado lineal óptimo) u otros métodos.

36

CAPITULO VIII ENTROPIA

8.1 DEFINICIÓN

Entropía es el grado de desorden que tiene un sistema. La palabra entropíaprocede del griego em que significa sobre, en y cerca de; y sqopg, quesignifica giro, alternativa, cambio, evolución o transformación. La entropíaes un patrón de medida.En física esto se aplica a la segunda ley de la termodinámica , la cual diceque los sistemas aislados tienden al desorden, es decir, las cosas tiendenal caos a medida que pasa el tiempo (no hay más que fijarse en elorganismo de un ser vivo);mientras que en la teoría de la comunicacióneste concepto es empleado como unnº que mide el grado de incertidumbreque posee un mensaje.

La entropía es nula cuando la certeza es absoluta, y alcanzará unmáximocuando el sistema se acerca al equilibrio. Cuando la entropía seamáxima en eluniverso, esto es, exista un equilibrio entre todas lastemperaturas y presiones,llegará la muerte térmica del universo. Toda laenergía se encontrará en forma decalor y no podrán darsetransformaciones energéticas.

“El orden de un cuerpo puede aumentar, pero a condición de quelacantidad de desorden a su alrededor aumente en una cantidad mayor.Esto es loque le sucede a un ser vivo. Podríamos definir la vida como unsistema ordenadoque puede sostenerse contra la tendencia al desorden, yque puede reproducirse.

Es decir, que puede formar sistemas ordenados similares, peroindependientes. Elsistema debe convertir energía partiendo de una formaordenada en energíadesordenada. De esta manera el sistema puedesatisfacer el requisito de que lacantidad de desorden aumente, mientrasque, al mismo tiempo, aumenta el ordenen sí mismo y en su descendencia.

8.2 APLICACIONES

)(XH )(YH

)|( XYH)|( YXH );( YXI

),( YXH

37

Desde estos dibujos se pueden sacar todas las relaciones posibles:

)|()(

)|()(

);()|()|(),(

),()()();(

)|()()|()();(

XYHYH

YXHXH

YXIXYHYXHYXH

YXHYHXHYXI

XYHYHYXHXHYXI

etc…

Cuando las variables son independientes H(X,Y)=H(X)+H(Y)y la información mutua será nula I(X;Y)=0.

Ejemplo:

Dadas dos variables aleatorias discretas (X,Y) que pueden asumir 4 valores distintos cada una, conocemos la densidad

Conjunta(en general puede será una matriz rectangular):

0004

116

1

16

1

16

1

16

132

1

32

1

8

1

16

132

1

32

1

16

1

8

1

),( yxp

Se puede ver claramente que la suma de todos los valores da 1, como debe de ser:

H(X,Y)

H(X)

H(Y)

H(Y|X)I(Y;X)H(X|Y)

X

Y

Marginales

Condicionales

)();( ypxp

)|();|( yxpxyp

38

103321

4161

641

81

2),(4

1

4

1

i j

iyxp

Con la conjunta tenemos toda la información necesaria; podemos calcular las marginales(serán vectores) fácilmente:

4

1

),()(i

iyxpxp Sumar las Filas!=

81

,81

,41

,21

4

1

),()(j

j yxpyp Sumar las Columnas!=

41

,41

,41

,41

Podemos ver que las variables son dependientesporque:

)()(),( ypxpyxp

Para hallar las densidades condicionales(serán matrices), utilizaremos:

)(),(

)|(yp

yxpyxp ;

)(),(

)|(xp

yxpxyp

Esto significa por ejemplo:

81

,81

,41

,21

4/132/1,32/1,16/1,8/1

)1|( YXp

Es decir, si miramos bien estamos normalizando las Filas de la conjunta:

000111

41

41

41

81

81

21

41

81

81

41

21

)|( yxp (normalizando las filas)

Donde las líneas suman 1; normalizando las columnas logramos:

00021

21

21

41

81

41

41

21

81

41

41

41

41

)|( xyp (normalizando las columnas)

Donde las columnas sumas 1.

39

Calculo de las Entropías:

bitsbitsHXH 75.147

81

log81

81

log81

41

log41

21

log21

81

,81

,41

,21

)( 2222

bitsHYH 241

log41

441

,41

,41

,41

)( 2

Las formulas de las entropías condicionales son:

4

1

)|()()|(i

ii yXHypYXH ;

4

1

)|()()|(j

jj xYHxpXYH

Las )|( iyXH y las )|( jxYH son respectivamente las entropías de las filas de )|( yxp y las entropías de

las columnas de )|( xyp :

000111

41

41

41

81

81

21

41

81

81

41

21

)|( yxp

La entropía condicional será finalmente el promedio de todas:

bits811

041

241

47

41

47

41

)|( YXH

A la misma manera, trabajando sobre las columnas de )|( xyp y promediando logramos:

bits8

13)|( YXH

La Información Mutuaserá:

bits83

)|()()|()();( XYHYHYXHXHYXI

La Entropía Conjunta podemos calcularla directamente de la matriz ),( yxp :

bits37.3bits827

321

log324

161

log166

41

log41

81

log82

),( 2222 YXH

O a través de una de las formulas:

4/7)1|( yXH

4/7)2|( yXH

2)3|( yXH

0)4|( yXH

40

bits827

831614

83

247

);()()(),(

YXIYHXHYXH

Observaciones importantes:

1. Podemos notar como, por ejemplo, 0)4|( yXH es menor de )(XH , pero 2)3|( yXHes mayor que )(XH !! Parece increíble: en unos caso “aprender” información de la variable Y nos hace

incrementar la incertidumbre sobre X!!!Pero promediando Y nos aporta información sobre X(siendo no

independientes), de hecho:

)()|( XHYXH

2. Si miramos )2|( yxp vemos que es una densidad diferente de )(xp , pero la las entropías son iguales

)()2|( XHyXH . Esto porque la entropía es una cantidad independientes de permutaciones, o

mejor dicho, de los valores que asumen las variables (del soporte de la densidad). La entropía depende solo

de los valores de las probabilidades.Esto no pasa con otras medidas de dispersión como la varianza, que en

general será distinta.

Calcular la Capacidad de un Canal discreto sin memoria:

En la figura anterior, se muestra una representación típica de un canal discreto de comunicación; esto equivale a una

matriz de probabilidad condicional )|( xyp . Habría que añadir o suponer algún tipo de información más sobre )(xpo )(yp , por ejemplo.

DISCRETO: se define así porque las entradas x y las salidas y pueden tomar un conjunto discreto de valores.

SIN MEMORIA: si las salidassolo depende de las entradas al tiempo en cuestión, y son condicionalmente independientes

de otras entradas y otras salidas en otro instante de tiempo (es equivalente a la formula ruidoXY ).

Sabemos que por definición de capacidad de canal:

1 2 10 1 2 3

Entropía igual

Varianza distintaMNmatriz)|( xyp

);(max)(

YXICxp

Mx

1x

2x

Ny

....

.… ....

1y

jy

“de canal”

41

Vamos a ver los pasos que generalmente habrá que hacer para calcular la capacidad, en los problemas típicos.

Empezamos diciendo que la formula que suele ser más útil para expresar la información mutua es:

Esto no quiere decir que haya que utilizar siempre esta. Los pasos para en cálculo serán:

1) Hallar la matriz )|( xyp equivalente al grafico del canal.

Donde con

valorN

valor

valor

Ci ...2

1

hemos indicado los M vectores columna (de N filas) que componen las matrices; por

definición de la matriz )|( xyp , las sumas de los valores a lo largo de cada columna dará 1.

2) Calcular )(YH ; esto necesita de dos pasos: primero hay que calcular )(yp y luego la Entropía. En formula:

YM CMxpCxpCxpCyp )(...)2()1()( 21

y luego: )()( YCHyH

Es decir para hallar )(yp desde )|( xyp , hay que promediar las columnas a través de la densidad )(xp ; el

resultado será un vector columna YC (cuyos elementos tendrán que sumar 1, por construcción) que representa )(yp .

Así que se podrá calcular la entropía utilizando la definición.

3) Calcular )|( XYH ; también en este caso necesitaríamos 2 pasos: calcular las entropías de cada columna iC y

luego promediar. Juntando los dos pasos, podemos escribir en formula:

)(...)2()1()|( 21 MxpCHxpCHxpCHXYH M

Es decir: respecto al punto precedente, aquí primero calculamos las entropías de las columnas y luego promediamos.

Antes para hallar )(YH , hemos promediado y luego calculado la entropía.

4) Como tememos )(YH y )|( XYH , tenemos también:

)|()();( XYHYHYXI

)|()();( XYHYHYXI

Mx

1x

2x

Ny

....

.… ....

1y

jy MCCCxyp ...)|( 21

42

ahora, nos tocará maximizarla según algún parámetro, para hallar C.

Para que se entienda mejor, vamos a hacer un ejemplo:

Como se puede ver ya hemos hallado la matriz )|( xyp , cuyas columnas son:

Vamos a calcular )(yp :

)(...)2()1()( 21 MxpCxpCxpCCyp MY

p

p

pp

pppppCyp Y )2(

)2(1

)1(

)21(

1

0)21(

0

1

1)(

Se puede comprobar que los elementos de YC suman efectivamente 1, como debe de ser siendo una densidad de

probabilidad. Así que la entropía de las salidas será:

ppppCHYH Y )2(log)2()2(1log)2(1)()( 22

Ahora nos hace falta la entropía condicional )|( XYH :

pCHpCHpCHXYH 321 )21()|(

0

0

)1(log)1()(log

3

2

221

CH

CH

CH

pXYH )1(log)1()(log| 22

Así que la información mutua será:

ppppp

XYHYHYXI

)1(log)1()(log)2(log)2()2(1log)2(1

)|()();(

2222

1

0;

0

1;

1 321 CCC

3x

1x

2x1y

2y

11

1

1

0

0

1

1)|(

xypp

p

p21

43

Nos queda solo derivar respecto a p:

0)1(log)1()(log

...)2()2(log)2()2()2(1log)2();(

22

22

ppp

YXI

0)1(log)1()(log)2(log)2(1log)2();(

2222

ppp

YXI

....ˆ p

Finalmente, la capacidad será:

pppppC ˆ)1(log)1()(logˆ)2(logˆ)2(ˆ)2(1logˆ)2(1 2222

CAPITULO IX PROCESOS ESTACIONARIOS

9.1 PROCESOS ESTACIONARIOSSe dice que un proceso {Xt : t ≥ 0} es estacionario (en el sentido estricto) sipara cualesquiera tiempos t1 , . . . , tn, la distribución del vector (Xt1 , . ,Xtn) es la misma que la del vector (Xt1 +h , . . . , Xtn +h ) para cualquiervalor de h > 0. En particular, la distribución de Xt es la misma que la deXt+h para cualquier h > 0, y entonces esta distribución es la misma paracualquier valor de t.

9.2 PROCESOS CON INCREMENTOS ESTACIONARIOSSe dice que un proceso {Xt : t ≥ 0} tiene incrementos estacionarios si paracualesquiera tiempos s < t, y para cualquier h > 0, las variables Xt+h −Xs+h y Xt − Xs tienen la misma distribución de probabilidad. Es decir, elincremento que sufre el proceso entre los tiempos s y t sólo depende deestos tiempos a través de la diferencia t − s, y no de los valores específicosde s y t.

9.3 PROCESO DE BERNOULLI (proceso bernoulliano de ensayos independientes)

La distribución de bernoulli se refiere a un experimento aleatorio discretoque solo puede tomar dos valores, 0 ó 1 y más comúnmente éxito o fracasopara el cual la probabilidad p del resultado éxito ó 1 es conocida.P(1) = P(éxito) = pP(0) = P(fracaso) = 1 – p = qDistribución de probabilidad es:

p(x) = px(1-p)1-x para x = 0, 1Existen cantidad de fenómenos aleatorios que obedecen a este modelo:

Cursar la materia procesos estocásticos: se aprueba o se reprueba.La repetición de estos experimentos Bernoullianos, como por ejemplo ellanzamiento de una moneda más de una vez, o la observación del sexo devarios hijos de una misma pareja, etc, es llamado proceso Bernoullianode ensayos independientes.

44

9.4 CAMINATA ALEATORIA (recorrido aleatorio de estado discreto y tiempo discreto)

Una caminata aleatoria simple sobre el conjunto de números enteros Z esun proceso estocástico a tiempo discreto {Xt:t = 0, 1, . . .} que evolucionacomo se muestra en la figura 5. Es decir, iniciando en el estado 0, alsiguiente tiempo el proceso puede pasar al estado +1 con probabilidad p, oal estado −1 con probabilidad q, en donde p+q= 1. Se usa la misma reglapara los siguientes tiempos, es decir, pasa al estado de la derecha conprobabilidad p, o al estado de la izquierda con probabilidad q. El valor deXnes el estado del proceso al tiempo n. Este proceso cambia de un estadoa otro en dos tiempos consecutivos de acuerdo a las probabilidades detransición que se muestran en la figura, válidas para cualquier t ≥ 0, y paracualesquiera enteros i y j.

p si j = i + 1

=i)=X|j=P(X n+n 1 q si j = i-1

0 en otro caso

Figura 5. Caminata Aleatoria

Dado que estas probabilidades no dependen de n, se dice que sonhomogéneas en el tiempo, es decir, son las mismas para cualquier valor de n.A partir de estasconsideraciones, es intuitivamente claro que este procesocumple la propiedad deMarkov, es decir, el estado futuro del proceso dependeúnicamente del estado presentey no de los estados previamente visitados.Una posible trayectoria de esteproceso se muestra en la figura 6.

Figura 6. Trayectoria del proceso. Propiedad de Markov

Una caminata aleatoria puede también definirse de la forma siguiente: Seaξ1, ξ2, .una sucesión de variables aleatorias independientes e

45

idénticamente distribuidastales que P(ξ = +1) = p y P(ξ = −1) = q, endonde, como antes, p + q = 1.Entonces para t ≥ 1 se define:

Xn= X0 + ξ1 + · · · + ξn

Este es uno de los ejemplos más simples de un proceso estocástico. Eneste caso Xn es una variable aleatoria que comienza con un valor conocidoX0 y a lo largo de los períodos n = 1,2,3,…va variando a razón de saltosunitarios hacia arriba o hacia abajo con una probabilidad asociada del 50%en cada caso.

CAPITULO X ESTECTRO DE POTENCIA

10.1 PROCESO ALEATORIOEs una colección de señales en tiempo discreto, por tanto, no podemos calcular latransformada de Fourier del proceso en sí mismo. Pero podemos obtener unarepresentación del proceso en el dominio de la frecuencia si expresamos latransformada de Fourier en términos de un promedio del conjunto derealizaciones.La secuencia de autocorrelación de un proceso estacionario en sentido amplio(WSS) proporciona una descripción en el dominio del tiempo del momento desegundo orden del proceso. Como rx(k) es una secuencia determinista, podemoscalcular la transformada de Fourier en tiempo discreto,

10.2 ESPECTRO DE POTENCIAEsta expresión determina el espectro de potencia o densidad espectral depotencia del proceso. Conocido el espectro de potencia, podemos obtener lasecuencia de autocorrelación mediante la transformada inversa:

Por tanto, el espectro de potencia proporciona una descripción en el dominio de lafrecuencia del momento de segundo orden del proceso. En ocasiones puederesultar conveniente utilizar la transformada-z en lugar de la transformada deFourier en tiempo discreto,

A Px(z) también se le denomina espectro de potencia de x(n).

46

10.2.1 Propiedades del espectro de potencia.

10.2.1.1 SimetríaPuesto que la secuencia de autocorrelación de un proceso aleatorio WSSposee simetría conjugada, el espectro de potencia es una función realde w. Si el proceso es real, la secuencia de autocorrelación es real y par, loque implica que el espectro de potencia es real y par.El espectro de potencia de un proceso aleatorio WSS x(n) es real, Px(ejw)= Px*(ejw), y Px(z) satisface la condición de simetría

Si x(n) es real, entonces el espectro de potencia es par, Px(ejw) = Px(e-jw), lo que implica

10.2.1.2 PositividadEl espectro de potencia de un proceso aleatorio WSS es no negativo

10.2.1.3 Potencia totalLa potencia de un proceso aleatorio WSS de media cero es proporcional alárea bajo la curva de densidad espectral de potencia

10.2.1.4 Propiedad de autovaloresLos autovalores de la matriz de autocorrelación de dimensiones N x N deun proceso aleatorio WSS de media cero están limitados por los valoresmáximo y mínimo del espectro de potencia,

El espectro de potencia también puede relacionarse con el promedio demagnitudes de Fourier al cuadrado, |X(ejw|2. Consideramos

(Ec. 1)

Que es proporcional al cuadrado de la magnitud de la transformada de Fourier entiempo discreto de 2N + 1 muestras de una realización dada de un procesoaleatorio. Puesto que, para cada frecuencia w, PN(ejw) es una variable aleatoria,si tomamos el valor esperado obtenemos

(Ec. 2)

Con la sustitución k = n - m, tenemos

47

(Ec. 3)

Suponiendo que la secuencia de autocorrelación decae a cero lo suficientementerápido para considerar

(Ec. 4)

Podemos tomar el límite de Ec. 3 con N tendiendo a infinito, y

(Ec. 5)

Combinando Ec. 1 y Ec. 5 obtenemos

Por tanto, el espectro de potencia puede ser visto como el valor esperadode PN(ejw) en el límite cuando N tiende a infinito.

10.3 APLICACIONES A LAS TELECOMUNICACIONES

Un uso común de la transformada de Fourier, es encontrar las componentesfrecuenciales de una señal en el dominio del tiempo que esta contaminada conruido. Considérese dos señales senoidales que tienen frecuencias fundamentalesde 50Hz y 120Hz, luego considérese estas señales contaminadas con ruidoaleatorio. Los comandos para generar una señal con las especificacionesanteriormente mostradas son los siguientes:

>> t = 0:0.001:0.6;

>> x = sin ( 2 * pi * 50 * t ) + sin ( 2 * pi * 120 * t );

>> y = x + 2 * randn( size ( t ) );

>>plot( 1000 * t (1:50), y (1:50) )

Es de gran dificultad identificar lascomponentes de frecuencia mirando la señaloriginal. Sin embargo al realizar la conversión de esta señal al dominio de lafrecuencia, la identificación de estas componentes se hace más sencilla. Laconversión de la señal al dominio de la frecuencia se hace calculando laTransformada Rápida de Fourier, tomando para el cálculo los primeros 512puntos de la señal. El espectro de potencia es una medida de la potencia a variasfrecuencias, y este puede ser calculado con los siguientes comandos.

>>Pyy = Y .* conj (Y) / 512;

48

Para realizar la gráfica se puede tener en cuenta que la información que apareceen el arreglo Pyy es por propiedades de la transformada, simétrica con respecto ala frecuencia media, es decir que si tenemos 512 puntos de muestra, la señal queesta almacenada en el arreglo es simétrica con respecto a la muestra 256, por lotanto dibujar las ultimas 256 muestras del arreglo será completamenteinnecesario. De manera que para visualizar el espectro de potencia los comandosdeben ser como se muestran a continuación:

>> f = 1000*(0:256)/512;

>>plot(f,Pyy(1:257))

Para ver todas las muestras y entender lacaracterística de simetría descrita anteriormente se pueden utilizar los siguientescomandos:

>> f = 1000*(0:511)/512;

>>plot(f,Pyy)

Del espectro de potencia se puede visualizar que las componentes con mayorfrecuencia se encuentran a los 50 y 120 Hz respectivamente. Comprobando asíque las señales de las cuales se formo la señal contaminada con ruido tienenestas frecuencias fundamentales.

AHORA OBSERVAREMOS LA DENSIDAD ESPECTRAL DE POTENCIA.%FUNCTION SPECTRAL DENSITY UNIPOLAR NRZ

A=sqrt(2);

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

del=0;

P=(A.^2*Tb)/4*(sinc(f*Tb)).^2*(1+(1/Tb)*del);

g=plot(f,P);

title('ESPECTRAL DENSITY: UNIPOLAR NRZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

stem(0,(A.^2*Tb)/2,'LineWidth',2.5);hold off;

axis([0 L 0 1.09*Tb]);set(g,'LineWidth',2.5);

49

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{'R =';'2R'})

set(gca,'YTickLabel',{'0.5*Tb';'Tb'})

%FUNCTION SPECTRAL DENSITY POLAR NRZ

A=1;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

del=0;

P=(A.^2*Tb)*(sinc(f*Tb)).^2;

g=plot(f,P);hold on;xlabel('Frequency');ylabel('Normalized Power');

title('ESPECTRAL DENSITY: POLAR NRZ')

axis([0 L 0 1.01*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

%FUNCTION SPECTRAL DENSITY UNIPOLAR RZ

49

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{'R =';'2R'})

set(gca,'YTickLabel',{'0.5*Tb';'Tb'})

%FUNCTION SPECTRAL DENSITY POLAR NRZ

A=1;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

del=0;

P=(A.^2*Tb)*(sinc(f*Tb)).^2;

g=plot(f,P);hold on;xlabel('Frequency');ylabel('Normalized Power');

title('ESPECTRAL DENSITY: POLAR NRZ')

axis([0 L 0 1.01*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

%FUNCTION SPECTRAL DENSITY UNIPOLAR RZ

49

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{'R =';'2R'})

set(gca,'YTickLabel',{'0.5*Tb';'Tb'})

%FUNCTION SPECTRAL DENSITY POLAR NRZ

A=1;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

del=0;

P=(A.^2*Tb)*(sinc(f*Tb)).^2;

g=plot(f,P);hold on;xlabel('Frequency');ylabel('Normalized Power');

title('ESPECTRAL DENSITY: POLAR NRZ')

axis([0 L 0 1.01*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

%FUNCTION SPECTRAL DENSITY UNIPOLAR RZ

50

A=2;

Tb=1;

R=1/Tb;

L=2*R;

f=0:L/50:L;

del=0;

P=(A.^2*Tb)/16*(sinc(f*Tb/2)).^2;

g=plot(f,P);

title('ESPECTRAL DENSITY: UNIPOLAR RZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

stem([0 R],[(A.^2*Tb)/8 P(26)+0.1],'LineWidth',2.5);hold off;

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

%FUNCTION SPECTRAL DENSITY BIPOLAR RZ

A=2;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

P=(A.^2*Tb)/8*(sinc(f*Tb/2)).^2.*(1-cos(2*pi*f*Tb));

g=plot(f,P);

title('ESPECTRAL DENSITY: BIPOLAR RZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

50

A=2;

Tb=1;

R=1/Tb;

L=2*R;

f=0:L/50:L;

del=0;

P=(A.^2*Tb)/16*(sinc(f*Tb/2)).^2;

g=plot(f,P);

title('ESPECTRAL DENSITY: UNIPOLAR RZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

stem([0 R],[(A.^2*Tb)/8 P(26)+0.1],'LineWidth',2.5);hold off;

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

%FUNCTION SPECTRAL DENSITY BIPOLAR RZ

A=2;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

P=(A.^2*Tb)/8*(sinc(f*Tb/2)).^2.*(1-cos(2*pi*f*Tb));

g=plot(f,P);

title('ESPECTRAL DENSITY: BIPOLAR RZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

50

A=2;

Tb=1;

R=1/Tb;

L=2*R;

f=0:L/50:L;

del=0;

P=(A.^2*Tb)/16*(sinc(f*Tb/2)).^2;

g=plot(f,P);

title('ESPECTRAL DENSITY: UNIPOLAR RZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

stem([0 R],[(A.^2*Tb)/8 P(26)+0.1],'LineWidth',2.5);hold off;

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

%FUNCTION SPECTRAL DENSITY BIPOLAR RZ

A=2;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

P=(A.^2*Tb)/8*(sinc(f*Tb/2)).^2.*(1-cos(2*pi*f*Tb));

g=plot(f,P);

title('ESPECTRAL DENSITY: BIPOLAR RZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

51

%FUNCTION SPECTRAL DENSITY MANCHESTER NRZ

A=1;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

P=(A.^2*Tb)*(sinc(f*Tb/2)).^2.*(sin(pi*f*Tb/2)).^2;

g=plot(f,P);

title('ESPECTRAL DENSITY: MANCHESTER NRZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

51

%FUNCTION SPECTRAL DENSITY MANCHESTER NRZ

A=1;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

P=(A.^2*Tb)*(sinc(f*Tb/2)).^2.*(sin(pi*f*Tb/2)).^2;

g=plot(f,P);

title('ESPECTRAL DENSITY: MANCHESTER NRZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

51

%FUNCTION SPECTRAL DENSITY MANCHESTER NRZ

A=1;

Tb=1.5;

R=1/Tb;

L=2*R;

f=0:L/50:L;

P=(A.^2*Tb)*(sinc(f*Tb/2)).^2.*(sin(pi*f*Tb/2)).^2;

g=plot(f,P);

title('ESPECTRAL DENSITY: MANCHESTER NRZ');

holdon;xlabel('Frequency');ylabel('Normalized Power');

axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);

set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;

set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);

set(gca,'XTickLabel',{['R'];['2R']})

set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})

52

CAPITULO XI PROCESOS DISCRETOS EN EL TIEMPO

11.1 TIEMPO DISCRETOCuando el valor de la variable sólo puede cambiar en una serie de momentosdeterminados del tiempo (por ejemplo, los sorteos de la lotería tienen lugar endeterminadas fechas).

11.2 VARIABLE DISCRETALa variable sólo puede tomar determinados valores o estados discretos (losmercados financieros cotizan sus activos con unos precios que oscilan: decéntimo de euro en céntimo de euro, o en 1/8 de punto, etc.).

11.3 SIMULACIÓN DE PROCESOS EN TIEMPO DISCRETOCuando el modelo de colas es complejo, el método que hemos estado utilizandohasta ahora (obtener unas ecuaciones y resolverlas) deja de ser válido. Esentonces cuando se recurre a simular el proceso para tener al menos una visiónaproximada de lo que ocurre. Por supuesto, este procedimiento también es válidopara cualquiera de los sistemas vistos en los capítulos precedentes. Supongamosque tenemos un modelo GI/G/1 y queremos calcular el tiempo medio de esperaen cola. En una simulación tenemos una lista de tiempos entre llegadas y una listade tiempos de servicio generados al iniciarse la simulación de modo que losúnicos instantes de tiempo interesantes (cuándo llega un cliente determinado,cuándo entra en el servicio y cuándo se va) son ya conocidos. Como entre dos deestos instantes consecutivos no sucede nada que afecte al sistema, a la hora deefectuar cálculos, avanzamos en el tiempo de forma discreta saltando de uno deestos tiempos al siguiente. Por ejemplo, el tiempo de espera del cliente k-ésimose obtiene a partir del instante en que llega al servicio y el instante en que elcliente (k-1)-ésimo sale del sistema. Si hacemos la media de los tiempos deespera de los primeros 100 clientes, tendremos una aproximación del tiempo deespera medio en esa cola. El siguiente organigrama muestra cómo implementareste método en cualquier lenguaje de programación.

53

54

CAPITULO XII PUNTOS DE POISSON Y RUIDO IMPULSIVO

12.1 RUIDO IMPULSIVO

Puede modelate con un proceso de Poisson.Este proceso tiene una entrada coneste formulario:z (t) = Σδ (t-ti)porque el proceso es ActiveDs por una Secuencia de impulsos alazar ocurring ti veces.Se necesita el conjunto de puntos de TI de Poisson, con λi media y una funciónreal h (t), entonces usted tiene que el proceso es el siguiente:w (t) = Σh (t-ti).Si usted usa el teorema de Campbell's, la media es η ˛ σ = λ ∫ h (t) dt y varianza =λ ∫ ˛ h (t), donde los límites de la integral es de - ∞ a ∞

12.2 RUIDO BLANCO

Ruido aleatorio que posee la misma densidad espectral de potencia a lo largo detoda la banda de frecuencias. Dado que la luz blanca es aquella que contienetodas las frecuencias del espectro visible, el ruido blanco deriva su nombre decontener también todas las frecuencias.

El ruido blanco es una señal no correlativa, es decir, en el eje del tiempo la señaltoma valores sin ninguna relación unos con otros. Cuando se dice que tiene unadensidad espectral de potencia plana, con un ancho de banda teóricamenteinfinito, es que en un gráfica espectral de frecuencia tras haber realizado unadescomposición espectral de Fourier, en el dominio de la frecuencia veríamostodas las componentes con la misma amplitud, haciendo el efecto de una líneacontinua paralela al eje horizontal. Fig 7.

Normalmente se suele emplear como señal de pruebas, aunque en realidad seprefiere el ruido rosa, dada que su densidad espectral se asemeja mucho más ala del audio real y cómo percibimos nosotros. Además, dado que en la mayoría degráficas el eje horizontal está graduado en octavas con un comportamientologarítmico, una medida de ruido blanco la veríamos "ascendente" a 3 dB poroctava, al contrario que el ruido rosa que, en ese caso, sí se ve plano.

55

Fig. 7. Espectro del ruido blanco

56

CAPITULO XIII PROCESOS CICLO ESTACIONARIOS

13.1 SISTEMAS CERRADOS ESTACIONARIOS

A medida que leemos la descripción del problema, definimos al sistema que sepresenta (en cierto modo subjetivamente) dibujando una frontera imaginariaalrededor del objeto de interés. Si no hay transferencia de materia a través de talfrontera, el sistema es cerrado. Para un sistema estacionario la fotografía delsistema tomada con la cámara de estado permanece congelada incluso si elsistema intercambia calor y trabajo con sus alrededores. Los problemas queinvolucran tales sistemas se denominan Cerrados y Estacionarios.

A primera vista, se podría pensar que ejemplos de tales sistemas son sistemastriviales que permanecen en el mismo estado imposibilitado de efectuar cualquieracción. Pero no todos los sistemas cerrados con un estado congelado estánnecesariamente impedidos de realizar alguna acción. Por ejemplo, puede haberuna continua transferencia de calor y trabajo con los alrededores. En el caso deuna máquina de calor, un sistema cerrado conceptual operando sobre una basecontinua, produce trabajo a expensas del calor, transfiriéndose calor entre elsistema y dos fuentes térmicas que están a dos temperaturas diferentes. Unrefrigerador o una bomba de calor son dos ejemplos prácticos similares desistemas Cerrados y Estacionarios. A medida que los detalles internos de unamáquina de calor o un ciclo de refrigeración (o una bomba de calor) se vuelvenimportantes, el análisis global puede basarse en las suposiciones de sistemacerrado y estacionario.

En general, tales máquinas, refrigeradores o bombas de calor, se implementanconectando una serie de dispositivos en estado estacionario uno tras otroformando un bucle, o teniendo un dispositivo cilindro-pistón ejecutando una seriede procesos (que involucran transferencia de calor o trabajo solamente) formandoun ciclo. Mientras que es fácil de entender que un bucle cerrado de dispositivosestacionarios pueden formar un sistema estacionario, cabe preguntarse cómo unsistema ejecutando una secuencia de procesos transientes (no estacionarios)puede constituir un ciclo estacionario, especialmente cuando los procesos delsistema pasan drásticamente a través de una serie estados diferentes dentro deun único ciclo. La repuesta está en promediar el ciclo sobre un tiempo de interésque sea más largo que el período del ciclo. Si el tiempo de exposición de lacámara de estado es lo suficientemente grande, la imagen del sistema asumirá unestado promedio constante validando el supuesto de estado estacionario.

vii

IV. MATERIALES Y MÉTODOS

Dado que el trabajo está referido a la elaboración de un texto y no a una

investigación tipo experimental, este ítem no se considera.

V. RESULTADOS

Teniendo en consideración los objetivos trazados para la elaboraciónde

este texto, cuales son: reforzar la formación académica de los estudiantes

de estudios superiores y presentar técnicas y estrategias de solución de

problemas deProbabilidades y Procesos Estocásticos en Ingeniería,con

el apoyo de Software especializado como el SPSS V.19,0 bajo la

modalidad Windows, además de otros programas, es queno se ha

escatimado esfuerzo alguno en la redacción de este trabajo. Se han

dedicado muchas horas de trabajo para tratar de abordar los temas con

objetividad, con claridad y sobre todo con simplicidad pero sin pérdida de

nivel. En tal sentido, se espera que resulte un material de consulta que

satisfaga los requerimientos de los estudiantes de ingeniería.

VI. DISCUSIÓN

El estudio de las Probabilidades y Procesos Estocásticos en Ingeniería es

un campo mucho más amplio en el que se abordó en este texto. Queda

pendiente incluir dentro de este mismo texto, o en otro similar, un estudio

más detallado. Hasta donde se pudo abarcar en este texto quedará para el

conocimiento y aplicación de la investigación de las probabilidades y

procesos estocásticos en ingeniería.

viii

VII. REFERENCIALES

1. EVANS & ROSENTHAL. Probabilidad y Estadística. La ciencia de la

incertidumbre. Reverté, 2005.

2. GRIMMETT & STIRZAKER. Probability and Random Processes. Oxford.

1992.

3. GUT, ALLAN. An Intermediate Course in Probability. Springer-Verlag., 1995.

4. GUT, ALLAN. Probability. A graduate course. Springer, 2005.

5. KAI-LAI CHUNG. Teoría elemental de la probabilidad y de los procesos

estocásticos. Reverté.1983.

6. K. S. Shanmugan and A. M. Breipohl, Random Signals: Detection,

Estimation and Analysis, John Wiles and Sons, 1988.

7. Papoulis and S. U. Pillai, Probability, Random Variables and Stochastic

Processes, 4th edition, McGraw-Hill, 2002.

8. STIRZAKER, D. Elementary Probability. Cambridge.1994.

9. Stark and J. W. Woods, Probability and Random Processes with

Applications to Signal Processing , 3rd edition , Prentice Hall, 2001.

10.W.B. Davenport, Jr. and W.L. Root, An Introduction to the Theory of

Random Signals and Noise , McGraw Hill, 1987.

11.W. Feller , An Introduction to Probability Theory and Its Applications,

Volume 1 , 3rd ed., John Wiley and Sons, Inc., New York , 1968.

12.W. Feller, An Introduction to Probability Theory and Its Applications,

Volume 2 , 2nd ed., John Wiley and Sons, Inc., New York , 1971.

ix

VIII.APÉNDICE

x

IX. ANEXOS

Comunicaciones Digitales

Trabajo Práctico 1

Señales y sistemas pasabanda.

E.1 Una señal pasabajosx(t) con un ancho de banda W es muestreada a la velocidad de Nyquist y como resultado de esto

se genera la siguiente señal )()()1()(1 ssn nTtnTxtx :

1)Encontrar la transformada de Fourier de x1(t).

2)Se puede reconstruir x(t) de x1(t) usando un LTI ? Por que?

3)Se puede reconstruir x(t) de x1(t) utilizando un sistema lineal variante en el tiempo ? Como?

E.2 Una señal pasabajosx(t) de ancho de banda W es muestreada a intervalos de tiempo Ts y los valores obtenidos se

indican como x(nTs) . Una nueva señal x1(t) es generada mediante una interpolación lineal de los valores muestreados, es

decir:

))())1((()()(1 sss

ss nTxTnx

T

nTtnTxtx

paranTs t (n+1) Ts

1)Encontrar el espectro de potencia de x1(t).

2)Bajoque condiciones puede la señal original se reconstruida de la señal muestreada y cual es el filtro de reconstrucción

requerido?

E.3 Una señal pasabajosx(t) tiene un transformada de Fourier como lo indica la siguiente figura:

Esta señal es aplicada al siguiente sistema:

xi

Los bloques marcados por H representan transformadores de Hilbert y se asume que W<< f0.

Determinar las señales xi(t) para 1 i7 y graficar Xi(t) para las mismas condiciones.

E.4 demostrar que la transformada de Hilbert detfje 02

es igual atfjefj 02

0 )sgn(. .

E.5. Una señal pasabandax(t)=sinc.t.cos(2f0t) es pasada a través de un filtro pasabanda con respuesta impulsiva

h(t)=sinc2(t).sin(2f0t). Usando los modelos equivalentes pasabajos para la señal y el filtro encontrar el equivalente

pasabajos para la salida y desde esta señal encontrar la salida y(t).

E.6 Dadas las siguientes señales pasabandas , m(t)= sinc2(t) y x(t) = m(t)cos(2f0t)-m^(t)sin(2f0t).

1)Encontrar la preenvolvente z(t) y la señal pasabajo equivalente de a x(t).

2)Determinar y graficar la transformada de Fourier de x(t). Cual es el ancho de banda de x(t)?

3)Repetir el inciso anterior para x(t) = m(t)cos(2f0t)-m^(t)sin(2f0t).

SimulacionesMatlab

S.1. Determinar y graficar el espectro de magnitud de una señal par x(t) la cual para valores positivos

de t esta dada por:

t+1 0 t 1

2 1 t 2

x(t) = -t+4 2 t 4

0 para cualquier otro valor

Determinar los resultados en forma analítica y comparar los resultados

S.2 La señal descrita en el problema anterior se pasa a través de un sistema LTI con una respuesta

impulsiva

1 0 t 2

h(t) = 2 2 t 3

0 para otro valor

Determinar el espectro de magnitud y fase de la señal de salida.

S.3 Dada la siguiente señal :

cos(2 *47 t) + cos(2*219 t) para 0t10

x(t) =

0 para otro valor

Asumir que la señal esta muestreada a 1000 muestras por segundo . Usando la función butter.m que

proveeMatlab para diseñar un filtro Butterworth diseñar uno de orden 4 con frecuencia de corte

xii

100Hz y pase la señal x(t) a través del mismo. Graficar el espectro de potencia de salida . Realizar los

mismos pasos que el inciso anterior pero con un filtro de orden 8.

S.4 Realizar los mismo que en el ejercicio anterior pero con un filtro pasa altos y de la misma

frecuencia de corte

Procesos Estocásticos y Ruido

E1. Dado Z=X+Y donde X e Y son variables aleatorias independientes demostrar que: Z(s)=X(s)Y(s). . es la

función característica de X y es definida como la transformada de Laplace de fx(x) evaluada a x=-s.

E2. Demostrar que para la siguiente función de densidad de probabilidad Raleigh

2

2

22

x

ex

para x > 0

fx(x) =

0 para otro

Como dato se tiene E[X]=2

y VAR[X]= 2

22

E.3 Dadas las variables aleatorias X e Y con sus respectivas p.d.f.

xe para x > 0

fx(x)=

0 para otro x

xe para x > 0

fY(y)=

0 para otro x

donde y son constantes positivas , encontrar la p.d.f. de X + Y y tratar el caso especial de = por

separado.

E.4 Dos variables aleatorias X e Y están distribuidas de la siguiente manera:

yxKe para x 0 , y 0

f X,Y (x,y) =

0 para otro x e y

Encontrar:

1) El valor de la constante K

xiii

2) Las funciones de densidad marginal de X e Y

3) Si X e Y son independientes

4) fX/Y(x/y)

5) E[X/Y=y]

6) COV[X,Y]

E.5 Dado un vector aleatorio X=(X1,X2,X3, ....Xn) con distribución conjunta Gaussiana , media m y matriz covarianza C .Definir un nuevo vector aleatorio Y=AX

t+ b ,dondeY es un vector aleatorio n-dimensional y A y b matrices constantes.

Usando el hecho de que funciones lineales de variables aleatorias conjuntamente Gaussianas son conjuntamente

Gaussianas encontrar la media y covarianza de Y.

E.6 Dos variables aleatorias X e Y son conjuntamente Gaussianas con:

media m=[1 2]

covarianzaC=

94

44

1)Encontrar los coeficientes de correlación entre X e Y

2)Si Z=2X +Y y W=X-2Y encontrar la COV(X,Y)

3)Encontrar la función densidad de probabilidad (p.d.f.) de Z

E.7 Dos variables aleatorias X e Y están distribuidas acorde a:

2

22 yx

eK

six.y 0

fX,Y(x,y)=

0 si x.y< 0

Encontrar:

1)K

2)Demostrar que X e Y son variables aleatorias Gaussianas

3)Demostrar que X e Y no son conjuntamente Gaussianas

4)¿Son X e Y independientes ?

5)¿Están X e Y decorrelacionadas ?

6) fx/y(x/y) y determinar si es Gaussiana

E.8Cual de las siguientes funciones puede ser una función autocorrelación de un proceso aleatorio y

porque ?

1)f() = sin (2.f0.)

2)f() = 2

1- || || 1

3)f()=

1+|| || > 1

4)f() como la siguiente figura :

xiv

E.9.Un proceso aleatorio Z(t) toma valores 0,1. La transición de 0 a 1 y de 1 a 0 ocurre aleatoriamente

y la probabilidad de tener n transiciones en un intervalo de tiempo , (>0 ) esta dada por la siguiente

ecuación

n

N np

11

1)( , para n=0,1,2,.....

donde> 0 es una constante. Se asume que en el tiempo t=0 , Z(0) es equiprobable la ocurrencia de

0 o 1.

1)EncontrarmZ(t)

2)Encontrar RZ(t + , t ). Determinar si es estacionario. Determinar si es cicloestacionario.

3)Determinar la densidad de potencia espectral

E.10 Si un proceso aleatorio estacionario X(t) con función autocorrelación RX() es aplicado a un

sistema LTI con repuesta impulsiva h(t), la salida Y(t) es también un proceso aleatorio estacionario con

funciónautocorrelación

RY() =RX() h() h(-)

1)Si el proceso X(t) es un proceso aleatorio cicloestacionario y se aplica a un sistema LTI con respuesta

impulsiva h(t) demostrar que el proceso de salida también es cicloestacionario.

2)Verificar que la relación SY(f) =SX(f) |H(f)|2

se cumple para procesos estacionarios así como también

paracicloestacionarios

E.11 Encontrar la densidad de potencia espectral para los siguientes procesos:

1) X(t)=A.cos(2..fo.t + ), donde A es una constante y es una variable aleatoria uniformemente

distribuida en [0 ,4

].

2)X(t) = X + Y donde X e Y son independientes, X es uniforme en [-1, 1] e Y es uniforme en [ 0,1].

E.12 Dado Y(t) = X(t) + N(t) donde X(t) y N(t) son respectivamente los procesos señal y ruido. Se

asume que X(t) y N(t) son conjuntamente estacionarios con funciones auto correlación RX() y RN() y

función correlación cruzada RXN(). Se desea separar la señal del ruido pasando Y(t) a través de un

sistema LTI con respuesta impulsiva h(t) y función transferencia H(f) . El proceso de salida se indica

como X'(t) y se desea que su valor sea tan cercano a X(t) como sea posible

1) Encontrar la correlación cruzada entre X'(t) y X(t) en terminaos de h() , RX(), RN() y RXN() .

2)Demostrar que el sistema LTI que minimiza E[X(t)- X'(t)]2

tiene la siguiente función transferencia:

)(Re2)()(

)()()(

fSfSfS

fSfSfH

XNNX

XNX

3) Ahora asuma que X(t) y N(t) son independientes y N(t) es un proceso gaussiano con media cero y

densidad de potencia espectral N0/2 .Encontrar la función transferencia H(f) optima para bajo esas

condiciones. Cual es el valor de E[X(t)- X'(t)]2

en este caso.

4)En el caso especial de SN(f) =1 , SX(f) =21

1

fy SXN(f)= 0 encontrar la función transferencia H(f)

optima.

E.13 Demostrar que el espectro de potencia cruzada (cross- powerspectrum) de la siguiente figura

xv

esta dado por )().().()( * jSjGjHjS XYWU

E.14 Para una cadena homogénea de Markov la relación de la evolución de la probabilidad de los

estados con respecto al tiempo esta determinada por )()/()(1 ipijpjp ki

k

,(1) , donde )(ipk es la

probabilidad de estar en el estado i en el tiempo k.

Hacer la transformada Z en ambos lados de (1) y verificar que

i

ij zPzijpjpzP )()/()()( 10 (2)

donde

0

)()(k

kkj zjpzP , si hay N estados la ecuación (2) da N ecuaciones con N incógnitas Pj(z).

E.15 Demostrar que la media del primer tiempo de transito (firstpassagetime ) en una cadena de

Markov es1

)(

zNN zQz

f

SimulacionesMatlab

S.1 Generar una secuencia de 1000 muestras de un proceso Gauss-Markov descrito por la siguiente

relación recursiva Xn= Xn-1 + Wn para n =1,2,.....,1000

donde X0=0 , =0.9 y {Wn} es una secuencia con media cero y varianza unidad.

S.2 Generar una secuencia discreta de N=1000 muestras aleatorias uniformemente distribuidas con

media cero y varianza unidad en el intervalo -1/2 y 1/2 y computar la auto-correlación de la secuencia

{Xn} definida como:

mN

nmnnx XX

mNmR

1

,1

)( para m=0,1,2,....M

y

N

mnmnnx XX

mNmR

||

,||

1)( para m=-1,-2,....-M

También determine el espectro de potencia de la secuencia {Xn} computando la transformada discreta

de Fourier (DFT) de RX(m) la cual es eficientemente computada utilizando el algoritmo FFT (Fast

Fourier Transform ) definido como:

M

Mm

MfmjXX emRfS )12/(2)()(

S.3 Generar una secuencia {Xn} de N=1000 valores aleatorios uniformemente distribuidos en el

intervalo [-1/2 , 1/2]. Pasar esta secuencia a través de un filtro con respuesta impulsiva:

xvi

(0.95)n

para n 0

h(n)=

0 para n 0

La ecuación recursiva que describe la salida de este filtro como una función de la entrada esta dada por:

yn=0.95.yn-1 + xn para n 0 y-1= 0

Computar las funciones auto-correlación xn(m) y Ry(m) de las secuencias {xn} e {yn} y sus correspondientes espectros de

potencia Sx(f) y Sy(f) usando las siguientes ecuaciones :

mN

nmnnx XX

mNmR

1

,1

)(

M

Mm

MfmjXX emRfS )12/(2)()(

S.4 Generar dos secuencias {CN} y {SN} de N=1000 valores aleatorios uniformemente distribuidos en el intervalo [-1/2,

1/2]. Cada una de las secuencias es pasada a través de un filtro lineal con respuesta impulsiva

(1/2)n

para n 0

h(n)=

0 para n < 0

la relación entrada salida de este filtro esta determinada por la siguiente ecuación recursiva:

xn=1/2.xn-1 + N para n1 y x0 = 0

Obtener dos secuencias {xCN} y {xSN} pasando las secuencias a través del filtro. Con la secuencia de salida {xCN}

modular una portadora cos(/2)n y con la secuencia {xSN} modular una portadora en cuadratura sin(/2)n . Generar una

señal pasabanda combinando las componentes obtenidas.

Computar y graficar la auto-correlación de las secuencias {xSN} y {xCN} para |m| 10 . Computar la auto-correlación de la

señal pasabanda para |m| 10. Utilizar DFt o FFT para computar el espectro de potencia de SC(f) , SS(f) y SX(f) . Graficar

dichos espectros y comentar los resultados .