Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector...

57
Procesos Estoc´ asticos para Ingenieros: Teor´ ıa y Aplicaciones Materiales complementarios Francisco Montes Suay Departament d’Estad´ ıstica i Investigaci´o Operativa Universitat de Val` encia

Transcript of Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector...

Page 1: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Procesos Estocasticos para Ingenieros:

Teorıa y Aplicaciones

Materiales complementarios

Francisco Montes Suay

Departament d’Estadıstica i Investigacio OperativaUniversitat de Valencia

Page 2: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,
Page 3: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Copyright c© 2007 de Francisco Montes

Este material puede distribuirse como el usuario desee sujeto a las siguientes condiciones:

1. No debe alterarse y debe por tanto constar su procedencia.

2. No esta permitido el uso total o parcial del documento como parte de otro distribuidocon fines comerciales.

Departament d’Estadıstica i Investigacio OperativaUniversitat de Valencia46100-BurjassotSpain

Page 4: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,
Page 5: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Indice general

1. Probabilidad. Variable aleatoria. Vector aleatorio 11.1. Deteccion de agrupaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2. Estimacion del tamano de una poblacion animal a partir de datos de recaptura . 31.3. Atencion al cliente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.4. Distribucion de Poisson vs distribucion Exponencial . . . . . . . . . . . . . . . . 51.5. Control de la senal de voz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.5.1. Simulacion de una variable aleatoria Laplace . . . . . . . . . . . . . . . . 91.6. Tasa de fallo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2. Esperanza. Desigualdades. Funcion caracterıstica 132.1. Entropıa de una variable discreta: compresion de datos . . . . . . . . . . . . . . . 13

2.1.1. Entropıa relativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.1.2. La entropıa como medida de informacion . . . . . . . . . . . . . . . . . . 152.1.3. Compresion de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.2. Comprobacion de software crıtico . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.3. Codificacion de imagenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.3.1. Recta de regresion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.3.2. Codificacion de imagenes y regresion mınimo cuadratica . . . . . . . . . . 20

3. Sucesiones de variables aleatorias. Teoremas de convergencia 253.1. Aplicaciones de la ley de los grandes numeros . . . . . . . . . . . . . . . . . . . . 25

3.1.1. El teorema de Glivenko-Cantelli . . . . . . . . . . . . . . . . . . . . . . . 253.1.2. Calculo aproximado de integrales por el metodo de Monte-Carlo . . . . . 263.1.3. Aproximacion de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.2. Una curiosa aplicacion del TCL: estimacion del valor de π . . . . . . . . . . . . . 27

4. Procesos Estocasticos 294.1. Derivacion alternativa del Proceso de Poisson . . . . . . . . . . . . . . . . . . . . 294.2. Planificacion de semaforos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314.3. Cadenas de Markov continuas en el tiempo: fiabilidad de un multiprocesador . . 344.4. Procesos de nacimiento y muerte (Birth-death) . . . . . . . . . . . . . . . . . . . 37

4.4.1. Colas de longitud infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.4.2. Colas con parametros de nacimiento y muerte constantes y longitud finita 394.4.3. Aplicacion a la transmision de datos a traves de una red de comunicaciones 39

5. Transformacion lineal de un proceso estacionario 415.1. Procesos autoregresivos de medias moviles (ARMA) . . . . . . . . . . . . . . . . 415.2. Vibraciones aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

Page 6: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

2 INDICE GENERAL

Bibliografıa 48

Page 7: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Capıtulo 1

Probabilidad. Variable aleatoria.Vector aleatorio

1.1. Deteccion de agrupaciones

La deteccion de agrupaciones (clusters) es de gran interes en muchas areas. En epidemiologıa,por ejemplo, es importante conocer si ciertas enfermedades aparecen con mayor frecuencia endeterminadas areas geograficas, dando lugar a una agrupacion anormal de casos. La asignacionde recursos por parte de la policıa local a los distintos distritos de una ciudad deberıa hacerseteniendo en cuenta la posible existencia de clusters de mayor criminalidad. La acumulacioninesperada e inexplicada de accidentes de trafico en ciertos sectores de una ciudad, o de unacarretera, exige la atencion de las autoridades de trafico. Todos estos ejemplos, y muchos masque podrıan citarse, exigen previamente comprobar que, efectivamente, en la zona geograficaobservada el fenomeno en estudio ocurre con mayor frecuencia de lo que cabrıa esperar. Comose trata de fenomenos aleatorios de lo que estamos hablando es de frecuencia de un suceso:casos de gripe, robos a personas o accidentes mortales.

Una forma sencilla, por los conceptos teoricos que exige, es la que vamos a presentar acontinuacion, aunque puden encontrarse metodos mas sofisticados y eficientes para abordar elproblema. Supongamos que para facilitar la incidencia y localizacion del suceso que nos interesa,hemos dividido el area geografica de una ciudad en un total de 2500 celdas sobre un retıculo de50× 50. La Figura 1.1 muestra a la izquierda un conjunto de ocurrencias del suceso, celdas ennegro, en las que hay ausencia de cluster. El suceso ha ocurrido en 29 de las 2500, es decir enun 29/2500 = 1,16% de ellas. En la parte derecha de la figura se observa un area sombreadaque contiene 145 celdas en las que hay 11 incidencias. De acuerdo con la incidencia observadaen el patron de no agrupacion, la derecha, hubieramos esperado 145×0,0116 = 1,68 ocurrenciasen las 145 celdas, un numero muy inferior a las 11 observadas. ¿Significa ello que estamos enpresencia de un cluster?

Designemos por B ={existe un cluster} y por A ={datos observados} y vamos a calcular elcociente

P (no cluster|datos observados)P (cluster|datos observados)

=P (Bc|A)P (B|A)

. (1.1)

Este tipo de cocientes recibe el nombre de odds en contra y nos indica cuantas veces es masprobable que no ocurra un suceso frente a que ocurra. Si (1.1) es claramente mayor que 1, nosinclinaremos a rechazar la hipotesis de la existencia de un cluster en los datos observados.

Page 8: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

2 Probabilidad. Variable aleatoria. Vector aleatorio

50

45

40

35

30

25

20

15

10

5

5 10 15 20 25 30 35 40 45 50

50

45

40

35

30

25

20

15

10

5

5 10 15 20 25 30 35 40 45 50

Figura 1.1: Incidencia geografica de cierto suceso en una misma ciudad. Sin cluster en la iz-quierda y con un posible cluster en la parte sombreada de la derecha

Para el calculo de (1.1) utilizaremos la formula de Bayes,

P (Bc|A)P (B|A)

=P (A|Bc)P (Bc)/P (A)P (A|B)P (B)/P (A)

=P (A|Bc)P (Bc)P (A|B)P (B)

, (1.2)

lo que exige conocer P (B), P (A|B) y P (A|Bc). Veamos como podemos conocerlas. La pro-babilidad de que exista un cluster dependera del fenomeno en estudio y nuestro conocimientodel mismo nos ayudara a asignar un valor a priori a P (B). Si creemos que un cluster es muyimprobable, asignaremos un valor muy pequeno, por ejemplo P (B) = 10−6. Las otras dos son,respectivamente, las probabilidades de haber observado 11 veces el suceso en el area sombreadasegun que admitamos o no la existencia de un cluster. Para su calculo observemos que en cadacelda ocurre o no el suceso con independencia de las demas y que lo hace en todas ellas conla misma probabilidad, pc o pnc segun el caso. Es decir, la ocurrencia del suceso en cada celdapuede asimilarse a una prueba de Bernoulli y por tanto el total de ocurrencias en las 145 celdasseran una variable aleatoria Binomial. Es decir,

P (A|B) = P (k = 11|cluster) =(

14511

)p11

c (1− pc)134,

y

P (A|Bc) = P (k = 11|no cluster) =(

14511

)p11

nc(1− pnc)134.

¿Que decir respecto de pc y pnc? Hemos visto que cuando no habıa cluster solo en un 1,16 % deceldas habıa ocurrido un suceso, con lo que podemos tomar pnc ≈ 0,01. Si admitieramos que lazona sombreada es un cluster, la incidencia del suceso ha sido 11/145 = 0,07 y podemos tomarpc ≈ 0,1. Sustituyendo en las anteriores expresiones y en (1.2) tendremos,

odds =

(14511

)(0,01)11(0,99)134(1− 10−6)(14511

)(0,1)11(0,9)13410−6

= 3,52.

Parece pues difıcil de asumir la existencia de un cluster. Aunque debemos senalar que la asig-nacion de una probabilidad a priori tan pequena para B tiene una una gran influencia en el

Page 9: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

1.2 Estimacion del tamano de una poblacion animal a partir de datos de recaptura3

resultado final, lo que debe de hacernos reflexionar sobre dicha asignacion antes de llevarlaacabo.

1.2. Estimacion del tamano de una poblacion animal apartir de datos de recaptura

Queremos estimar la poblacion de peces en un lago1, para ello hemos capturado 1000 peces alos que, marcados mediante una mancha roja, hemos arrojado nuevamente al lago. Transcurridoun cierto tiempo, el necesario para que se mezclen con los restantes peces del lago, llevamos acabo una nueva captura de otros 1000 peces entre los que hay 100 marcados. ¿Que podemosdecir acerca del total de peces en el lago?

El problema que planteamos en un problema tıpico de estimacion estadıstica y vamos a daruna solucion que, aunque particular para la situacion descrita, esta basada en una metodologıade aplicacion general en los problemas de estimacion. Observemos en primer lugar que el numerode peces marcados en la segunda captura (recaptura) es una variable aleatoria Hipergeometrica,X ∼ H(1000, N, 1000), siempre bajo el supuesto de que ambas capturas constituyen sendasmuestras aleatorias de la poblacion total de peces del lago (en la practica semejante suposicionexcluye situaciones en las que las capturas se efectuan en el mismo lugar y en un corto periodode tiempo). Suponemos tambien que el numero de peces en el lago, N , no cambia entre las doscapturas.

Generalizemos el problema admitiendo tamanos arbitrarios para ambas muestras:

N = poblacion de peces en el lago (desconocida)r = numero de peces en la 1a capturan = numero de peces en la 2a capturax = numero de peces en con mancha roja en la 2a captura

px(N) = probabilidad de x peces con mancha roja en la 2a captura

Con esta formulacion sabemos que

px(N) =

(r

x

)(N − r

n− x

)

(N

n

) .

En la practica, r, n y x son conocidos por observacion, como en el ejemplo que planteamos,mientras que N es desconocido pero fijo y en modo alguno depende del azar. Al menos unacosa conocemos de N y es que N ≥ r + n − x, que es el total de peces capturados entreambas capturas. En nuestro ejemplo, N ≥ 1000+1000−100 = 1900. ¿Que ocurre si aceptamosN = 1900? Aunque se trata de un valor teoricamente posible, si calculamos p100(1900),

p100(1900) =

(1000100

)(900900

)

(19001000

) ≈ 10−430,

1El ejemplo esta sacado del libro de W. Feller (1968), An Introduction to Probability Theory and Its Appli-cation, Vol. I, 3rd. Edition, un libro clasico cuya lectura y consulta recomendamos vivamente.

Page 10: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

4 Probabilidad. Variable aleatoria. Vector aleatorio

(podemos valernos de la formula de Stirling, n! ≈ √2πnn+ 1

2 e−n, para aproximar las factoriales),habremos de aceptar que ha ocurrido un suceso, X = 100, con una probabilidad extraordina-riamente pequena. Resulta difıcil de admitir una hipotesis que exige casi un milagro para queel suceso observado tenga lugar. Otro tanto nos ocurre si suponemos que N es muy grande, porejemplo N = 106. Tambien ahora p100(106) es muy pequena.

Una respuesta adecuada puede ser la de buscar el valor de N que maximiza px(N). Dichovalor, que designamos mediante N , recibe el nombre de estimacion maximo-verosımil de N .Para encontrarlo, observemos que

px(N)px(N − 1)

=(N − r)(N − n)

(N − r − n + x)N=

N2 −Nr −Nn + rn

N2 −Nr −Nn + Nx,

de donde se deduce

px(N) > px(N − 1), si Nx < rn,

px(N) < px(N − 1), si Nx > rn.

Ası pues, a medida que aumenta N la funcion px(N) crece primero para decrecer despues,alcanzando su maximo en N = [rn/x], la parte entera de rn/x. En nuestro ejemplo, N = 10000.

1.3. Atencion al cliente

El problema de atender a los clientes que llegan a una cola, es de vital importancia enmuchas actividades. Se trata de hacer compatible una atencion eficiente al cliente, reduciendoal maximo su tiempo de espera, con un uso racional de los recursos disponibles. Evidentementeponer en funcionamiento un gran numero de puestos de atencion es una solucion, pero sin dudano es la mejor para la empresa.

Imaginemos una situacion sencilla y veamos como hacerle frente recurriendo a una distribu-cion de probabilidad bien conocida, la distribucion de Poisson. Supongamos para ello la horapunta de un supermercado, entre las 7 y las 8 de la tarde cuando la gente aprovecha la vuelta acasa desde el trabajo para hacer algunas compras de necesidad imperiosa, que no suelen ser muynumerosas. El gerente del supermercado abre todos los dıas a esa hora una caja rapida, no masde 10 artıculos, pero viene observando que ultimamente se acumulan en ella los clientes y, lo quees peor para su negocio, muestran claramente su descontento quejandose de la falta de servicio.Para remediar la situacion ha decidido recurrir a un experto, se supone que probabilista, paraque le aconseje cuantas cajas adicionales debe abrir.

La experiencia acumulada a lo largo del tiempo le permite saber que la duracion media dela atencion a los clientes de la cola rapida es de 1 minuto, y lo que desea es que en el 95 %de las ocasiones no haya mas de una persona esperando a ser atendida. Teniendo en cuenta elminuto que tardan en ser atendidos, lo ideal serıa que a lo sumo llegaran 2 personas a la cajapor minuto.

Lo primero que hizo el experto fue observar el total de gente que era atendida en la unicacaja rapida disponible entre las 7 y las 8 de la tarde. Logicamente la observacion la hizo a lolargo de varios dıas, de martes a viernes, y obtuvo como resultado 68, 70, 59 y 66 clientes,respectivamente. Es decir, por termino medio aproximadamente unos 70 clientes a la hora o1,167 por minuto. Por otra parte, el experto interpreto, “... que en el 95% de las ocasionesno haya mas de una persona esperando a ser atendida”, en terminos de probabilidad, a saber,que P (N ≤ 2) = 0,95, donde N es la variable que representa el numero de personas en lacola de la caja. Las caracterısticas del problema no ofrecieron duda al experto en cuanto alcomportamiento probabilıstico de N , se trataba de una variable aleatoria Poisson.

Page 11: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

1.4 Distribucion de Poisson vs distribucion Exponencial 5

Recordemos que una variable Poisson toma valores enteros no negativos, N = {0, 1, 2, 3, . . .}y su funcion de cuantıa es de la forma,

fN (k) = P (N = k) = exp(−λ)λk

k!.

El problema para el experto era conocer el valor del parametro λ, pero para eso hizo susobservaciones, porque λ depende de las caracterısticas del fenomeno y representa el numeromedio de ocurrencias del suceso en estudio por unidad de tiempo. En su caso estaba claro,λ = 1, 167 clientes/minuto. Con estos datos para una sola caja,

P (N ≤ 2) =2∑

k=0

fN (k) = exp(−λ)(

1 + λ +λ2

2

),

que para λ = 1, 167 valeP (N ≤ 2) = 0,88.

Este resultado no satisfacıa las exigencias del gerente y explicaba, por otra parte, la indeseadaacumulacion de clientes en la caja. Habıa que abrir mas cajas rapidas, ¿pero cuantas? El expertopenso que abrir otra caja suponıa dividir por 2 el numero de medio de clientes por minutos,con lo que el parametro de Poisson comun a las dos cajas valdrıa ahora λ2 = 1, 167 = 0, 583.Observemos que la condicion de “que no lleguen mas de dos clientes a la caja” significa ahora,“a ninguna de las dos cajas” ahora abiertas. La probabilidad de este suceso se calcula haciendouso de las variables de Poisson asociadas a cada caja,

P (a lo sumo 2 llegadas a ambas cajas) = P (a lo sumo 2 llegadas a la caja 1)×P (a lo sumo 2 llegadas a la caja 2)

= P (a lo sumo 2 llegadas a la caja 1)2

=[exp(−0,583)

(1 + 0,583 +

0,5832

2

)]2

= 0,957.

La solucion que aporto el experto fue por tanto abrir una nueva caja en ese horario punta.

1.4. Distribucion de Poisson vs distribucion Exponencial

La distribucion de Poisson y la distribucion Exponencial surgen de manera natural en eldenominado Proceso de Poisson, del que nos ocuparemos con detalle en el capıtulo dedicado alos procesos estocasticos. PA los efectos que ahora nos interesa bastara con hacer una sencilladescripcion del mismo.

Un proceso de Poisson surge cuando nos ocupamos de la ocurrencia de un suceso a lolargo del tiempo: llamadas que llegan una centralita telefonica, desintegraciones radioactivasque alcanzan un contador Geiger, clientes que llegan a un punto de atencion, accidentes enun central nuclear,.... Para el estudio de este tipo de fenomenos se hacen ciertas hipotesissimplificadoras,

1. las distintas ocurrencias del suceso son independientes unas de otras,

2. la probabilidad de dos o mas ocurrencias del suceso en un intervalo pequeno de tiempoes practicamente nula, y

Page 12: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

6 Probabilidad. Variable aleatoria. Vector aleatorio

3. si I1 e I2 son dos intervalos de tiempo tales que I1 ∩ I2 = ∅, las variables aleatoria N1 yN2, que designan el numero de ocurrencias en cada uno de ellos, son independientes.

Con estas hipotesis, se puede demostrar que el numero de ocurrencias en cualquier intervalo delongitud t sigue una distribucion de Poisson de parametro λt, Nt ∼ Po(λt). A senalar que a lahora de determinar la distribucion de Nt lo unico que importa es la longitud del intervalo y nodonde este situado, esta propiedad recibe el nombre de estacionariedad.

t1 t2 t3 t4 t5 X1 X2 X3 X4 X5 t Nt = 2

Figura 1.2: Tiempos de ocurrencia en un proceso de Poisson

En la Figura 1.2 hemos representado un esquema del proceso en la que se muestran lostiempos en los que ha ocurrido el suceso. Dos conjuntos de variables son de interes en unproceso de estas caracterısticas,

{Nt}t∈R+ , variables discretas con distribucion Poisson que denotan el numero de ocu-rrencias del suceso en el intervalo de longitud t, y

{Xi}i≥1, variables continuas que denotan el tiempo transcurrido entre dos ocurrenciasconsecutivas del suceso, la i-esima y la (i-1)-esima.

¿Como de distribuyen las variables Xi? Dada la independencia entre las ocurrencias de los su-cesos, las Xi son independientes y, logicamente, todas tiene la misma distribucion. Obtengamosla funcion de distribucion comun. Recordemos que

Fi(t) = P (Xi ≤ t) = 1− P (Xi > t),

pero el suceso {Xi > t} = {Nt = 0} y por tanto,

Fi(t) = 1− exp(−λt),

con lo que su funcion de densidad vale

fi(t) ={

λ exp(−λt), t ≥ 0;0, t < 0,

que es la funcion de densidad de una Exponencial con parametro λ, Xi ∼ Exp(λ), ∀i.El proceso de Poisson podrıa tambien haberse definido a partir de los tiempos transcurridos

entre las ocurrencias consecutivas del suceso. Si postulamos como hipotesis la independencia dedichos tiempos y como distribucion comun la Exp(λ), ¿como se distribuyen entonces las Nt?Para obtenerla consideremos Sn = X1 + X2 + · · ·+ Xn; se verifica

{Nt = n} = {Sn ≤ t} ∩ {Sn+1 > t},

pero como {Sn+1 ≤ t} ⊂ {Sn ≤ t},

{Sn ≤ t} ∩ {Sn+1 > t} = {Sn ≤ t} − {Sn+1 ≤ t},

Page 13: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

1.5 Control de la senal de voz 7

y tomando probabilidades

P (Nt = n) = P (Sn ≤ t)− P (Sn+1 ≤ t). (1.3)

La distribucion de una suma de n exponenciales independientes, identicamente distribuidas es(ver Capıtulo 2, apartado de Funcion Caracterıstica) una G(n, λ), cuya funcion de distribuciones

P (Sn ≤ t) =

1− exp(−λt)(1 + λt

1! + · · ·+ (λt)n−1

(n−1)!

), t ≥ 0;

0, en el resto.

Sustituyendo en (1.3),

P (Nt = n) = exp(−λt)(λt)n

n!,

y concluimos que Nt ∼ Po(λt).Este resultado evidencia la dualidad de ambos conjuntos de variables y su equivalencia a la

hora de definir el proceso de Poisson.

1.5. Control de la senal de voz

Cuando se transmite la voz es importante que no se produzcan distorsiones. Las emisorascomerciales de radio controlan la potencia de la senal mediante instrumentos adecuados, quepermiten reducirla manualmente en el caso de que sea demasiado grande. En otras ocasiones,las comunicaciones telefonicas, por ejemplo, el control se lleva a cabo de manera automatica.En cualquier caso, es necesario conseguir un control de la senal para evitar distorsiones cuandola transmision es analogica, o recortes (clip) cuando la transmision es digital.

El modelo probabilıstico utilizado para describir el comportamiento de la potencia de lasenal es el modelo de Laplace cuya funcion de densidad viene dada por

fX(x) =1√2σ2

exp

(−

√2σ2|x|

). (1.4)

Con este modelo, la amplitud X toma valores alrededor de 0, valores tanto mas dispersos cuantomayor sea σ2, el parametro de dispersion del modelo. En la grafica de la izquierda de la Figura1.3 se aprecia como se ensancha la curva a medida que crece σ2, que esta por ello directamenterelacionado con la potencia de la senal.

Los recortes automaticos de senal actuan tal como se muestra en la grafica de la derecha de laFigura 1.3. Mientras la el valor absoluto de la potencia este dentro de los lımites establecidos,|X| ≤ U , la entrada y la salida coincidiran, si |X| > U , la senal de salida se recorta. Elvalor U es una caracterıstica del sistema que debe ser disenado de forma tal que solo en muypocas ocasiones sea superado. Muy pocas ocasiones ha de ser interpretado aquı en terminosde probabilidad. Por ejemplo, si deseamos que a lo sumo en un 1 % del tiempo la senal sea

Page 14: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

8 Probabilidad. Variable aleatoria. Vector aleatorio

−4 −2 0 2 4

0.0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

−U

U

−U U

Figura 1.3: Densidad de Laplace con σ2 = 1 (-----) y σ2 = 4 (- - -) y relacion entre la entrada yla salida de una senal de voz recortada

recortada, Precorte ≤ 0,01, y U debera satisfacer,

Precorte = P (|X| > U)

= 2∫ +∞

U

1√2σ2

exp

(−

√2σ2|x|

)dx

= 2

−1

2exp

(−

√2σ2

x

)∣∣∣∣∣

+∞

U

= exp

(−

√2σ2

U

), (1.5)

y de aquı

exp

(−

√2σ2

U

)≤ 0,01 −→ U ≥

√σ2

2ln

(1

0,01

). (1.6)

El aumento de la potencia de la voz, medida a traves de σ2, exige incrementar el umbral Upara evitar recortes frecuentes. Por ejemplo, si σ2 = 2, y el valor de U fuera fijo e igual a 2,sustituyendo en (1.5) obtendrıamos Precorte = 0,1357 un valor muy alejado del 0,01 deseado.El valor de U deberıa ser

U ≥ ln(

10,01

)= 4,60.

Page 15: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

1.5 Control de la senal de voz 9

1.5.1. Simulacion de una variable aleatoria Laplace

La comprobacion empırica de la probabilidad de recorte obtenida en el parrafo anterior,cuando U = 2 y σ2 = 2, podemos llevarla cabo simulando valores de una distribucion deLaplace con esas caracterısticas y calculando la frecuencia relativa de los que superan dichoumbral. ¿Como simular los valores de una variable aleatoria Laplace o, en general, de cualquierotra variable?

La transformacion integral de probabilidad explicada en la Seccion 1.6 del manual “Proce-sos Estocasticos para Ingenieros: Teorıa y Aplicaciones” responde a la pregunta. El resultadoconcreto que nos interesa se enuncia en la siguiente proposicion:

Proposicion 1.1 (Transformada integral de probabilidad) Sea U ∼ U(0, 1), F una fun-cion de distribucion de probabilidad y definimos X = F−1(U). Entonces, FX = F .

Para aplicarlo a nuestra situacion hemos de obtener en primer lugar la funcion de distribucionde la variable Laplace. Integraremos (1.4),

FX(x) =∫ x

−∞

1√2σ2

exp

(−

√2σ2|t|

)dt.

Para x <= 0,

FX(x) =∫ x

−∞

1√2σ2

exp

(−

√2σ2|t|

)dt

=∫ x

−∞

1√2σ2

exp

(√2σ2

t

)dt

=12

exp

(√2σ2

x

), (1.7)

y para x ≥ 0,

FX(x) =∫ x

−∞

1√2σ2

exp

(−

√2σ2|t|

)dt

=∫ 0

−∞

1√2σ2

exp

(−

√2σ2|t|

)dt +

∫ x

0

1√2σ2

exp

(−

√2σ2

t

)dt (1.8)

=12−

[−1

2exp

(−

√2σ2

t

)∣∣∣∣∣

x

0

](1.9)

= 1− 12

exp

(−

√2σ2

x

), (1.10)

donde el paso de (1.8) a (1.9) se justifica porque dada la simetrıa de la variable Laplace,P (X ≤ 0) =

∫ 0

−∞ fX(x)dx = 1/2.Segun la Proposicion 1.1, si definimos X = F−1

X (Z), siendo Z ∼ U(0, 1), obtendremos unavariable Laplace. Hemos de obtener las inversas de (1.7) y (1.10). Para ello observemos que

Page 16: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

10 Probabilidad. Variable aleatoria. Vector aleatorio

x < 0 → 0 < z < 1/2 y x ≥ 0 → 1/2 ≤ z < 1. En definitiva

X =

√σ2

2 ln(2z), 0 < z < 1/2;

√σ2

2 ln(

12(1−z)

), 1/2 ≤ z < 1.

La grafica de izquierda en la Figura 1.4 muestra el histograma de 5000 simulaciones de Xobtenidas a partir de las expresiones anteriores mediante 5000 simulaciones de una variableU(0, 1), accesible a traves de la funcion rnd() en cualquier sistema operativo, hoja de calculoo software apropiado. Se ha utilizado σ2 = 2. Al histograma le hemos superpuesto la graficade la correspondiente funcion de densidad teorica que se ajusta, como era de esperar, a losfrecuencias observadas.

−9 −7 −5 −3 −1 1 3 5 7

0.0

0.1

0.2

0.3

0.4

0.5

x

hist

ogra

ma

y fu

nció

n de

den

sida

d

0 10 20 30 40 50 60 70 80 90 100

−6

−4

−2

02

46

muestra

Figura 1.4: Histograma de 5000 simulaciones de una variable aleatoria Laplace y su correspon-diente densidad teorica superpuesta (izquierda). Simulacion de 100 valores de variable aleatoriaLaplace con σ2 = 2 (derecha)

La grafica de derecha en la Figura 1.4 muestra los valores de 100 simulaciones Laplace conσ2 = 4, en ella sendas rectas, U = 2 y U = −2, indican los umbrales a partir de los cuales lasenal de voz sera recortada, lo que ocurre para 14 de los 100 valores simulados, lo que da unafrecuencia relativa de 0,14 muy proxima a Precorte = 0,1357.

1.6. Tasa de fallo

Son muchas las actividades en las que es necesario llevar un control riguroso de los fallosde los objetos, sean estos maquinas o humanos. Por ejemplo, en polizas de seguros de vida laprobabilidad de muerte (fallo) del sujeto es un criterio determinante del precio de la prima. Nopagara lo mismo una mujer de 25 anos que un hombre de 75. El precio se establece a partir delas llamadas tablas de vida, o mortalidad, que recogen las probabilidades de muerte por edadesen funcion de varios factores, principalmente el sexo.

No solo las probabilidades absolutas de muerte son de interes, tambien lo son las condiciona-das al hecho de haber sobrevivido a un cierta edad. Por ejemplo, “probabilidad de sobrevivir a la

Page 17: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

1.6 Tasa de fallo 11

edad de 87 anos, dado que ya se ha sobrevivido a los 85 anos”, que indudablemente sera mayorque la probabilidad absoluta de sobrepasar los 87 anos. Estas probabilidades condicionadas,y algunas funciones con ellas relacionadas, son de interes en todos los procesos que exigen uncontrol de los fallos del sistema.

Si X es la variable aleatoria que denota el tiempo en que se producen los fallos, el teoremade Bayes nos permite calcular la probabilidad del suceso “que el fallo se produzca en [t, t+dt]dado que el objeto ha sobrevivido al tiempo t“,

P (t < X ≤ t + dt|X > t) =P (t < X ≤ t + dt,X > t)

P (t < X)=

P (t < X ≤ t + dt)P (t < X)

,

porque {t < X ≤ t + dt} ⊂ {X > t}. Pero P (t < X ≤ t + dt) = FX(t + dt) − FX(t), yP (t < X) = 1− FX(t). Sustituyendo,

P (t < X ≤ t + dt|X > t) =FX(t + dt)− FX(t)

1− FX(t).

Si FX(t) es diferenciable, FX(t + dt) − FX(t) = F ′X(t)dt, y como F ′X(t) es una densidad de lavariable aleatoria X podemos escribir

P (t < X ≤ t + dt|X > t) ==F ′X(t)dt

1− FX(t)=

fX(t)dt

1− FX(t)= α(t)dt, (1.11)

donde

α(t) =fX(t)

1− FX(t),

es conocida como la tasa condicional de fallo o simplemente tasa de fallo, aunque segun elcontexto recibe otros nombres, como fuerza de mortalidad o tasa de morbilidad en el campoactuarial. Un objeto con un determinada tasa de fallo tiene mayor probabilidad de sobreviviren el proximo 4t que otro con una tasa menor.

A partir de (1.11) podemos obtener sendas expresiones para las funciones de distribucion ydensidad de X. Partamos de

F ′X(t)dt

1− FX(t)=

dFX(t)1− FX(t)

= α(t)dt, (1.12)

e integremos, teniendo en cuenta que es logico exigir a FX(t) las siguientes condiciones iniciales,

1. FX(0) = 0 por la naturaleza de la variable tiempo, y

2. lımt→∞ FX(t) = 1 porque asumimos que el objeto acabara fallando.

Tendremos, ∫ FX(t)

FX(0)

dFX

1− FX= − ln[1− FX(t)] =

∫ t

0

α(u)du, (1.13)

y de aquı

FX(t) = 1− exp(−

∫ t

0

α(u)du

). (1.14)

Derivando (1.14) obtendremos la funcion de densidad,

fX(t) = α(t) exp(−

∫ t

0

α(u)du

). (1.15)

La forma de α(t) determina la forma de FX(t) y fX(t). Veamos algunos ejemplos.

Page 18: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

12 Probabilidad. Variable aleatoria. Vector aleatorio

Gompertz propuso en 1825 un crecimiento exponencial para la fuerza de mortalidad,α(t) = Bct, t > 0, lo que da lugar a

FX(t) = 1− exp[

B

ln c(ct − 1)

], fX(t) = Bct exp

[B

ln c(ct − 1)

].

Weibull sugiere en 1939 un modelo en el que α(t) crece como una potencia de t en lugarde hacerlo exponencialmente, α(t) = ktn, t > 0, y

FX(t) = 1− exp(−k

tn+1

n + 1

), fX(t) = ktn exp

(−k

tn+1

n + 1

).

Si suponemos que la tasa de fallo es constante, α(t) = λ, t > 0, nos encontramos con queX ∼ Exp(λ),

FX(t) = 1− exp(−λt), fX(t) = λ exp(−λt).

Page 19: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Capıtulo 2

Esperanza. Desigualdades.Funcion caracterıstica

2.1. Entropıa de una variable discreta: compresion de da-tos

Consideremos la variable aleatoria discreta X cuyo soporte es DX = {x1, x2, . . . , xk} confuncion de cuantıa, fX(xi) = P (X = xi) = pi i = 1, . . . , k. Queremos encontrar una funcionque mida la incertidumbre del suceso Ai = {X = xi}. Sabemos que cuanto mayor sea pi menorsera esta incertidumbre, por lo que la funcion,

I(X = xi) = ln1

P (X = xi)= − ln P (X = xi),

satisface el objetivo buscado. A partir de la incertidumbre de cada uno de los sucesos elementalesligados a X definimos el concepto de entropıa de la variable X.

Definicion 2.1 (Entropıa de una variable aleatoria discreta) La entropia de X es la es-peranza de la incertidumbre de sus resultados, es decir,

HX = E[I(X)] =k∑

i=1

P (X = xi) ln1

P (X = xi)= −

k∑

i=1

P (X = xi) ln P (X = xi).

La entropıa, definida en terminos del logaritmo natural, utiliza como unidad de medida elnat, pero si utilizamos el logaritmo en base 2 para su definicion, cosa que suele hacerse, launidad es el bit. Ambas unidades difieren en un factor constante puesto que ln a = ln 2 log2 a.

Ejemplo 2.1 (Entropıa de una variable binaria) Si DX = {0, 1} y p = P (X = 0), laentropıa de X viene dada por

HX = −p log2 p− (1− p) log2(1− p),

cuya grafica para los distintos valores de p se muestra en la Figura 2.1. Se observa que elmaximo de la entropıa se alcanza para p = (1 − p) = 1/2, situacion en la que se da, efecti-vamente, la maxima incertidumbre en cuanto al valor que pueda tomar X. Como veremos acontinuacion, este resultado se generaliza al caso de una variable discreta uniforme, es decir,con equiprobabilidad para todos los valores de su soporte.

Page 20: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

14 Esperanza. Desigualdades. Funcion caracterıstica

0.0 0.2 0.4 0.6 0.8 1.0

0.2

0.4

0.6

0.8

1.0

p

Hx(

p)

Figura 2.1: Entropıa de una variable aleatoria binaria para los distintos valores de p = P (X = 0)

2.1.1. Entropıa relativa

Supongamos dos distribuciones de probabilidad sobre un mismo soporte, p = (p1, p2, . . . , pk)y q = (q1, q2, . . . , qk). La entropıa relativa de q respecto a p se define mediante

H(q; p) =k∑

i=1

pi ln1qi−HXp =

k∑

i=1

pi lnpi

qi, (2.1)

donde HXp es la entropıa de X bajo la distribucion p.De esta definicion se derivan los siguientes resultados de interes.

1. H(q; p) ≥ 0 y H(q; p) = 0 ↔ pi = qi, ∀i.En efecto, si en (2.1) tenemos en cuenta que ln(1/x) ≥ 1− x, podemos escribir,

H(q; p) =k∑

i=1

pi lnpi

qi≥

k∑

i=1

pi

(1− qi

pi

)=

k∑

i=1

pi −k∑

i=1

qi = 0,

y la igualdad se alcanza si y solo si pi = qi, ∀i.2. Si DX = {x1, x2, . . . , xk} entonces HXp ≤ ln k alcanzandose el maximo si y solo pi =

1/k,∀i.Supongamos que qi = 1/k,∀i, tendremos en (2.1) que

H(q; p) =k∑

i=1

pi ln1

1/k−HXp = ln k −HXp =

k∑

i=1

pi lnpi

1/k≥ 0,

de donde se deduce la desigualdad, que se convierte en igualdad cuando hay equiprobabi-lidad, pi = 1/k, ∀i. Se generaliza ası el resultado que habıamos obtenido para la variablebinaria.

Page 21: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

2.1 Entropıa de una variable discreta: compresion de datos 15

2.1.2. La entropıa como medida de informacion

Al llevar cabo el experimento ligado a la variable X cuyo soporte es DX = {x1, x2, . . . , xk},el resultado sera X = xi. Un interlocutor esta interesado en dicho resultado y para conocerlorealiza una serie de preguntas que solo admiten como respuesta un sı o un no. ¿Cual sera elnumero medio de preguntas que habra de plantear para conocer el resultado? ¿Existe un mınimopara dicha media? Antes de responder y de establecer la relacion entre la respuesta y HX ,veamos un ejemplo que ayude a comprender el problema que hemos planteado.

Ejemplo 2.2 Un urna contiene 32 bolas numeradas del 1 al 8 siendo su composicion la quemuestra la Tabla 2.1. Se extrae una al azar y queremos saber que estrategia seguir para mini-mizar el numero de preguntas necesarias para conocer el numero extraıdo.

dıgito 1 2 3 4 5 6 7 8numero de bolas 8 8 4 4 2 2 2 2

P (bola = i) 1/4 1/4 1/8 1/8 1/16 1/16 1/16 1/16

Tabla 2.1: Composicion de la urna

Puesto que los numeros que aparecen en un mayor numero de bolas son mas probables, unaestrategia razonable consiste en preguntar por los numeros en orden de probabilidad descendente.El esquema 1 de la figura nos muestra dicha estrategia. Otra estrategia alternativa consiste enpreguntar de forma que las dos posibles respuestas tengan la misma probabilidad. El esquema 2muestra esta segunda estrategia.

X = 1 X = 2 X = 3 X = 4 X = 5 X = 6

Esquema 1 Esquema 2

X = 1?

X = 1

X = 2?

X = 2

X = 3?

X = 3

X = 8

no

no

no

no

X ≤ 2? X = 1? sí sí nonoX ≤ 4? X = 3? sí sí nonoX ≤ 6? X = 5? sí sí nonoX = 7? X = 7 sí noX = 8

X = 7?

X = 7

Figura 2.2: Estrategias para averiguar la bola extraıda mediante preguntas de respuesta di-cotomica

Si representamos por N1 y N2 el numero de preguntas necesarias en cada estrategia paraconocer el numero de la bola extraıda, sus valores dependen de dicho numero y pueden obtenerse

Page 22: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

16 Esperanza. Desigualdades. Funcion caracterıstica

bola extraıda 1 2 3 4 5 6 7 8valor de N1 1 2 3 4 5 6 7 7valor de N2 2 2 3 3 4 4 4 4P (bola = i) 1/4 1/4 1/8 1/8 1/16 1/16 1/16 1/16

Tabla 2.2: Valores N1 y N2 en funcion de la bola extraıda

facilmente a partir de los esquemas de la Figura 2.2. Se muestran en la Tabla 2.2. A partir dela tabla podemos calcular las esperanzas de ambas variables,

E(N1) = (1 + 2)14

+ (3 + 4)18

+ (5 + 6 + 7 + 8)116

=5116

y

E(N2) = (2 + 2)14

+ (3 + 3)18

+ (4 + 4 + 4 + 4)116

=4416

.

La segunda estrategia es mejor que la primera.Si definimos ahora X como el numero que muestra la bola, su entropıa en bits vale

HX = −2× 14

log2

14− 2× 1

8log2

18− 4× 1

16log2

116

=4416

,

que coincide con E(N2), coincidencia que explicaremos a continuacion.

El problema de disenar una estrategia de preguntas con respuesta dicotomica para identificarexactamente el valor de la variable X ={numero que nos muestra la bola extraıda}, es el mismoque se presenta cuando queremos codificar la salida de una fuente de informacion. En efecto, lasecuencia de respuestas que conduce a la identificacion del valor de X puede asimilarse a unasecuencia de 0’s y 1’s, segun las respuestas hayan sido negativas o positivas, respectivamente.Se trata en definitiva de un codigo binario y el problema de encontrar la mejor estrategia depreguntas es equivalente al de encontrar el codigo binario mas corto.

Dos resultados fundamentales de teorıa de la informacion nos permiten establecer el papelrelevante del concepto de entropıa. Los enunciaremos sin demostracion.

1. La longitud media de cualquier codigo binario no puede ser menor que el valor en bits dela entropıa.

2. Si los valores de la funcion de cuantıa de X son potencias de 2, existe una estrategia(codificacion) cuyo valor medio iguala a la entropıa. Tal como ocurre con la segundaestrategia del ejemplo anterior.

Como consecuencia de estos dos resultados podemos afirmar que “la entropıa de una variablealeatoria X es el menor numero medio de bits necesarios para identificar su valor”.

2.1.3. Compresion de datos

El crecimiento exponencial que la informacion en formato digital ha experimentado en losultimos anos, ha obligado a recurrir a tecnicas de compresion de los datos con el fin de optimizarlos recursos de almacenamiento y de facilitar su transmision. ¿Que nivel de compresion podemosalcanzar? La entropıa, expresada en bits, es la respuesta a la pregunta, porque como acabamosde ver, establece el mınimo numero medio de bits necesarios para codificar una informacion.

Page 23: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

2.2 Comprobacion de software crıtico 17

Veamos un ejemplo ficticio que nos ayude a relacionar lo expuesto en los apartados anteriorescon el proceso de compresion de datos.

La Tabla 2.3 resume las caracterısticas de un archivo de datos compuesto por una secuen-cia de las primeras 8 letras del alfabeto, ABCDEFGH. La columna frec recoge las frecuenciasrelativas de aparicion de cada letra en la secuencia, la letras estan ordenadas segun las frecuen-cias decrecientes. Las columnas cod1 y cod2 recogen dos codificaciones binarias distintas, cuyascorrespondientes longitudes (numero de bits) aparecen en las columnas lcod1 y lcod2, respec-tivamente. Las codificaciones se corresponden con las estrategias 1 y 2 de la Figura 2.2. Ası,cod1 supone que vamos preguntando secuencialmente de que letra se trata, estando las letrasordenadas segun las frecuencias decrecientes y no alfabeticamente, porque lo logico es asignarlos codigos mas cortos a las letras mas frecuentes. Por otra parte, cod2 es un codigo binariode 3 dıgitos que se corresponde, es sencillo comprobarlo, con el supuesto de uniformidad en lasfrecuencias de aparicion.

Letra frec cod1 lcod1 cod2 lcod2A 0,58 1 1 000 3B 0,11 10 2 001 3E 0,09 100 3 010 3C 0,07 1000 4 011 3D 0,06 10000 5 100 3G 0,05 100000 6 101 3F 0,03 1000000 7 110 3H 0,01 0000000 7 111 3

Tabla 2.3: Distribucion de frecuencias de las letras en los datos y dos posibles codigos

Las longitudes medias de cada uno de los codigos valen,

L1 =8∑

i=1

lcod1i × freci = 2, 23 y L2 =8∑

i=1

lcodi

8=

8∑

i=1

38

= 3.

Como la equiprobabilidad, en nuestro caso la igualdad de frecuencias, supone la maxima incer-tidumbre, L2 = 3 es el maximo numero de bits por caracter que necesitaremos para codificarel archivo. El codigo 1 exige, por termino medio, 2,23 bits y supondrıa una reduccion del 25 %.La entropıa de una variable X con soporte DX = {A,B, C, D, F,G, H} y funcion de cuantıa,pi = freci, i = 1, . . . , 8, vale

HX = −8∑

i=1

freci log2(freci) = 2, 0651.

Esta es la maxima reduccion que podremos alcanzar.

2.2. Comprobacion de software crıtico

Son muchos los dispositivos hoy en dıa que funcionan con un software interno. Algunosde estos dispositivos, por el tipo de actividad a la que estan ligados, no pueden fallar nunca,entendiendo por “nunca” que su tasa de fallos sea extremadamente pequena. En otras ocasiones,el fallo del dispositivo da lugar a molestias soportables y las exigencias de funcionamiento delsoftware son, logicamente, menores.

Page 24: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

18 Esperanza. Desigualdades. Funcion caracterıstica

Un ejemplo de esta segunda situacion son los programas que hacen funcionar nuestros apara-tos electrodomesticos o nuestros telefonos moviles. Pero imaginemos el software que controla elfuncionamiento de un avion o de un dispositivo clınico del cual depende la vida de una persona.En estos casos los fallos esperables han de ser mınimos, del orden quizas de 1 fallo por cada106 horas de funcionamiento. Si reparamos que tal cantidad de horas son, aproximadamente,114 anos caeremos en la cuenta de la dificultad que implica efectuar un control de calidad delsoftware para comprobar si, efectivamente, su tasa de fallos es la deseada.

En la industria, ante situaciones semejantes, se somete a los sistemas a una situacion destress que induzca fallos mas frecuentes. Un metodo semejante puede adoptarse para controlarla calidad de este tipo de software altamente fiable. Para ello podemos introducir en el sistemadatos que produzcan tasas de fallo mucho mas elevadas de las habituales en la practica, calcularla frecuencia relativa de fallos obtenida y aplicar el reajuste correspondiente mediante el factorde stress utilizado. Lo que se propone, si T es la variable que mide el tiempo de fallo, essimplemente multiplicar P (T > t0) por un factor adecuado. Esta aproximacion probabilısticaal problema se conoce con el nombre de muestro de importancia1, cuya aplicacion veremos acontinuacion con un ejemplo simulado.

Queremos estimar P (T > t0), donde t0 es el lımite admitido de fallo del software. Lametodologıa habitual consiste en probar repetidamente el software y contar las ocasiones enlas que el tiempo de fallo, T , sobrepasa t0, pero si la probabilidad a estimar es del ordende 10−6 necesitarıamos llevar a cabo del orden de 108 simulaciones para poder efectuar laestimacion. Aunque en la practica raras veces se conoce la distribucion de T , para el ejemplopodemos suponer que T ∼ N(0, 1) y vamos a estimar P (T > 4,75) que sabemos es del ordende 2, 85× 10−6. Recordemos que

P (T > 4,75) =∫ +∞

4,75

1√2π

exp(−x2

2

)dx,

que podemos escribir,

P (T > 4,75) =∫ +∞

4,75

1√2π

exp(−x2

2

)

fY (x)fY (x)dx (2.2)

donde f(x) es la densidad de alguna variable aleatoria Y tal que P (Y > 4,75) À P (T > 4,75).Por ejemplo, si Y ∼ Exp(1), P (Y > 4,75) = exp(−4,75) = 0,086. Si utilizamos esta distribucion,(2.2) se escribe

P (T > 4,75) =∫ +∞

4,75

1√2π

exp(−x2

2

)

exp(−x)exp(−x)dx

=∫ +∞

0

1]4,75;+∞[(x)1√2π

exp(−x2

2+ x

)exp(−x)dx

=∫ +∞

0

g(x) exp(−x)dx. (2.3)

Pero (2.3) no es mas que E[(g(Y )] con g(y) = 1]4,75;+∞[(y) 1√2π

exp(−y2

2 + y)

y donde 1]4,75;+∞[(y)es la funcion indicatriz del intervalo ]4,75;+∞[.

¿Como utilizar esta esperanza a efectos practicos? Podemos estimar la esperanza mediantela media aritmetica de los valores de g(y) obtenidos mediante una simulacion de Montecarlo.

1R. Y. Rubinstein (1981), Simulation and the Monte Carlo Method. New York. Wiley.

Page 25: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

2.3 Codificacion de imagenes 19

P (T > 4,75)N estimada real #{Y > 4,75}

104 8,13× 10−7 1,02× 10−6 83105 9,86× 10−7 1,02× 10−6 880106 1,03× 10−6 1,02× 10−6 8765107 9,89× 10−7 1,02× 10−6 86476

Tabla 2.4: Aplicacion del muestreo de importancia a la estimacion de probabilidades muy pe-quenas

Para ello generaremos N valores de la Exp(1) y con ellos calcularemos g(x) y a continuacionsu media aritmetica,

P (T > 4,75) =1N

N∑

i=1

g(xi)

=1N

N∑

i=1

1]4,75;+∞[(xi)1√2π

exp(−x2

i

2+ xi

).

La ventaja del metodo estriba en que obtener valores de Y que excedan 4,75 es mucho masprobable. Por ejemplo, si N = 10000 esperaremos que haya alrededor de 86 valores mayoresque 4,75.

Senalemos que g(y) representa el cociente entre dos densidades, la que realmente correspondea al variable a controlar y la ficticia que corresponde a una nueva variable elegida porqueP (Y > t0) À P (T > t0). Es este cociente el que estimamos con el metodo de Montecarlodescrito.

La Tabla 2.4 muestra las estimaciones obtenidas para P (T > 4,75) con simulaciones dedistinto tamano. Se muestra tambien en cada caso el numero de valores de la variable deimportancia que han excedido el umbral de 4,75.

2.3. Codificacion de imagenes

El almacenamiento y transmision de archivos de imagenes plantea problemas semejantes alos generados por los archivos de datos. Si cabe de mayor entidad dada la mayor complejidadde aquellos archivos. El formato de codificacion JPEG, uno de los mas standard, se basa en elhecho de que existen partes en una imagen en las que no cambia sustancialmente su contenido.Por ejemplo, si estamos barriendo horizontalmente la imagen de una casa cuyas paredes son decolor blanco existiran largas secuencias de pıxels con practicamente el mismos valor, de formaque conocido el valor en pıxel conocemos, casi con seguridad, cual es el valor del siguiente o,de forma mas general, de sus vecinos. La razon para ello es que las variables aleatorias querepresentan el valor en cada pixel estan fuertemente correlacionadas. Es decir, si X1 y X2

representa a dos pıxels vecinos, ρX1X2 ≈ 1. ¿Que ventaja podemos obtener de este hecho? Paradar respuesta a la pregunta necesitamos introducir el concepto de recta de regresion.

2.3.1. Recta de regresion

Consideremos un vector aleatorio (X, Y ). Queremos encontrar una relacion funcional entreY y X, Y = f(X), con fines predictivos que cumpla las condiciones de bondad y sencillez.

Page 26: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

20 Esperanza. Desigualdades. Funcion caracterıstica

La funcion mas sencilla posible es la recta y por lo que respecta a la bondad haremos uso delprincipio de los mınimos cuadrados, lo que implica elegir los parametros de la recta de formaque

L(a, b) = E{(Y − aX − b)2

}

sea mınimo.La obtencion de a y b se reduce a un problema de maximos y mınimos y basta igualar a 0

las derivadas parciales ∂L/∂a y ∂L/∂b. Si lo hacemos obtendremos,

a =cov(X, Y )var(X)

, b = E(Y )− aE(X).

La ecuacion de la que se conoce como recta de regresion de Y sobre X tendra por expresion,

Y − E(Y ) =cov(X, Y )var(X)

(X − E(X)). (2.4)

2.3.2. Codificacion de imagenes y regresion mınimo cuadratica

El pixel i de la imagen se modeliza mediante una variable aleatoria, Xi, de manera quetodas las Xi tienen la misma distribucion de probabilidad. Sin perdida de generalidad podemossuponer que las variables estan centradas y su media es 0. En este caso, el coeficiente decorrelacion entre dos cualesquiera de ellas puede escribirse,

ρXiXj =cov(Xi, Xj)√

var(Xi)√

var(Xj)=

cov(Xi, Xj)var(Xi)

,

puesto que var(Xi) = var(Xj). A partir de (2.4), la recta de regresion de Xj sobre Xi adop-tara la expresion

Xj = ρXiXj Xi.

Si se trata de pıxels vecinos con |ρXiXj = 1|, el valor que tome Xj sera ±Xi, dependiendodel signo de ρXiXj . Parece absurdo, desde el punto de vista de la optimizacion de recursos,sea para almacenar o transmitir, escribir Xi = xi y a continuacion Xi+1 = xi+1 = ±xi.Podemos almacenar Xi y predecir Xi+1 como Xi+1 = |Xi| = ±xi. Ahora bien, si |ρXiXi+1 | < 1cometeremos un error que sera tanto mas perceptible cuanto mas alejado este de la unidad elvalor de ρXiXi+1 .

La codificacion JPEG utiliza las propiedades de la correlacion entre las componentes delvector aleatorio X = (X1, X2, . . . , Xn) constituido por los n pıxels de la imagen. Se trata deuna version de la transformada de Karhunen-Loeve, de la que mas adelante nos ocuparemos,cuyo algoritmo es el siguiente:

1. Transformar X en un nuevo vector Y cuyas componentes son incorreladas, mediante unatransformacion lineal Y = AX, donde A es una matriz cuadrada invertible de dimensionn.

2. Eliminar aquellas componentes de Y cuya varianza es muy pequena frente a las del resto.Ello dar lugar a un nuevo vector Y con algunas componentes iguales a 0, que sera el que sealmacena o transmite. Logicamente, las componentes nulas no necesitan ser codificadas,pero sı es necesario conocer su posicion.

3. Deshacer la transformacion inicial para obtener X = A−1Y que sera una aproximaciondel vector original.

Page 27: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

2.3 Codificacion de imagenes 21

Si ΣX y ΣY designan las matrices de covarianza del vector original y del transformado, laincorrelacion de las componentes de Y implica que ΣY es una matriz diagonal. La matriz Aes por tanto la matriz que diagonaliza ΣX , es decir, A = V T , donde V es la matriz de losvectores propios de ΣX . Tendremos

ΣY = AΣXAT

= V T ΣXV

= Λ =

var(Y1) 0 · · · 00 var(Y2) · · · 0...

......

...0 0 · · · var(Yn)

.

En los dos ejemplos que siguen consideramos dos situaciones distintas: la primera que permiteuna reconstruccion identica de la imagen original y la segunda en la que la reconstruccioncomporta errores.

Ejemplo 2.3 (Reconstruccion identica) Supongamos que la imagen a codificar esta repre-sentada por el vector X = (X1, X2, X3, X4), con vector de medias nulo y cuyas matrices decovarianzas y correlaciones valen,

ΣX =

5 1 2 51 3 1 52 1 4 95 5 9 23

, ρ =

1,0000 0,2582 0,4473 0,46630,2582 1,0000 0,2887 0,60190,4473 0,2887 1,0000 0,93830,4663 0,6019 0,9383 1,0000

.

Aun cuando ninguna correlacion es la unidad, si calculamos E[(X4− (X2 +2X3))2], recordandoque E(Xi) = 0, ∀i, obtendremos,

E[(X4 − (X2 + X3))2] = E[X24 + (X2 + 2X3)2 − 2X4(X2 + 2X3)]

= E(X24 ) + E((X2 + 2X3)2)− 2E[X4(X2 + 2X3)]

= E(X24 ) + E(X2

2 + 4X23 + 4X2X3)− 2[E(X4X2) + 2E(X4X3)]

= var(X4) + var(X2) + 4var(X3) + 4cov(X2, X3)−2[cov(X4, X2) + cov(X4, X3)]

= 0,

y como (X4 − (X2 + 2X3))2 ≥ 0, se deduce que P (X4 = X2 + X3) = 1, con lo que el valor deX4 viene determinado por el de X2 y X3.

La matriz A es la traspuesta de la matriz de los vectores propios de ΣX ,

A = V T =

−0,2236 −0,1940 −0,3478 −0,88960,9718 −0,1123 −0,0450 −0,20220,0743 0,8849 −0,4587 −0,03240,0000 −0,4082 −0,8165 0,4082

,

y ΣY valdra,

ΣY = Λ = AΣXAT =

28,8660 0 0 00 3,7513 0 00 0 2,3826 00 0 0 0

.

Page 28: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

22 Esperanza. Desigualdades. Funcion caracterıstica

En el vector transformado, Y , podemos prescindir de la cuarta componente por tener varianzanula. El vector que almacenaremos o transmitiremos sera Y = (Y1, Y2, Y3, 0). Observemos queY = BY con

B =

1 0 0 00 1 0 00 0 1 00 0 0 0

.

Si queremos ahora reconstruir el vector original, como V V T = I, A−1 = V , tendremos

X = A−1Y = V Y = V BY = V BV T X.

Calculemos V BV T ,

V BV T =

1 0 0 00 5

6 − 13

16

0 − 13

13

13

0 16

13

56

,

con lo que

X =

X1

56X2 − 1

3X3 + 16X4

− 13X2 + 1

3X3 + 13X4

16X2 + 1

3X3 + 56X4

= (sustituyendo X4 = X2 + 2X3) =

X1

X2

X3

X4

.

Hemos recuperado un vector identico al original.

Ejemplo 2.4 (Reconstruccion con error) Supongamos ahora que la imagen a codificar esta re-presentada por el vector X = (X1, X2, X3, X4), con vector de medias nulo y cuyas matrices decovarianzas y correlaciones valen,

ΣX =

6 5,7 0 05,7 6 0 00 0 4 3,80 0 3,8 4

, ρ =

1,00 0,95 0,00 0,000,95 1,00 0,00 0,000,00 0,00 1,00 0,950,00 0,00 0,95 1,00

.

A diferencia del ejemplo anterior, observamos ahora que las variables X1, X2, y X3, X4 estanmuy correlaciondas, ρX1X2 = ρX3X4 = 0,95. Veamos ahora que valen las distintas matrices y,en particular, como es el vector reconstruido.

La matriz A es la traspuesta de la matriz de los vectores propios de ΣX ,

A = V T =

0,7071 0,7071 0,0000 0,00000,0000 0,0000 0,7071 0,70710,7071 −0,7071 0,0000 0,00000,0000 0,0000 0,7071 −0,7071

,

y ΣY valdra,

ΣY = Λ = AΣXAT =

11,7 0 0 00 7,8 0 00 0 0,3 00 0 0 0,2

.

Page 29: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

2.3 Codificacion de imagenes 23

Como las varianzas de las dos ultimas componentes del vector transformado son muy pequenasfrente a las de las los primeras, podemos prescindir de ellas. El vector que almacenaremos otransmitiremos sera Y = (Y1, Y2, 0, 0). Observemos que Y = BY con

B =

1 0 0 00 1 0 00 0 0 00 0 0 0

.

Para reconstruir el vector original, como V V T = I, A−1 = V , y

X = A−1Y = V Y = V BY = V BV T X.

Obtengamos V BV T ,

V BV T =

12

12 0 0

12

12 0 0

0 0 12

12

0 0 12

12

,

y finalmente

X =

12 (X1 + X2)12 (X1 + X2)12 (X3 + X4)12 (X3 + X4)

.

Las componentes originales X1 y X2 son reemplazadas por la media de sus valores, al igual queX3 y X4. La explicacion reside en los valores elevados, cercanos a 1, de los correspondientescoeficientes de correlacion. El error cuadratico medio, MSE, que esta reconstruccion suponepodemos calcularlo.

MSE = E

[4∑

i=1

(Xi − Xi)2]

= E

[2∑

i=1

{Xi − (X1 + X2)/2}2]

+ E

[4∑

i=3

{Xi − (X3 + X4)/2}2]

=12E[(X1 −X2)2] +

12E[(X3 −X4)2]

=12[var(X1) + var(X2)− 2cov(X1, X2)] +

12[var(X3) + var(X4)− 2cov(X3, X4)]

=12(6 + 6− 2× 5,7 + 4 + 4− 2× 3,7) = 0,5.

Observese que, dados los valores de las varianzas, si las correlaciones hubieran valido 1 el errorcuadratico medio hubiera sido 0.

Por ultimo, hemos generado 20 vectores X = (X1, X2, X3, X4) de una normal multivariantecon vector de medias nulo y matriz de covarianzas la ΣX del ejemplo. Estos 4×20 = 80 valoresconstituyen la imagen original. Ella y su imagen recuperada se muestran en la Figura 2.3 conel fin de comprobar visualmente la calidad del proceso.

Page 30: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

24 Esperanza. Desigualdades. Funcion caracterıstica

−4

−2

0

2

Imagen original

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

X1

X2

X3

X4

−4

−2

0

2

Imagen recuperada

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

X1

X2

X3

X4

Figura 2.3: Imagenes original y recuperada

Page 31: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Capıtulo 3

Sucesiones de variables aleatorias.Teoremas de convergencia

3.1. Aplicaciones de la ley de los grandes numeros

3.1.1. El teorema de Glivenko-Cantelli

Para las variables aleatorias X1, X2, . . . , Xn se define la funcion de distribucion empıricamediante

Fn(x, ω) =1n

n∑

k=1

1]−∞,x](Xk(ω)).

Cuando todas las variables tienen la misma distribucion, Fn(x, ω) es el estimador natural dela funcion de distribucion comun, F (x). El acierto en la eleccion de este estimador se pone demanifiesto en el siguiente resultado.

Teorema 3.1 Sea {Xk} una sucesion de variables aleatorias i.i.d. con funcion de distribucioncomun F (x), entonces Fn(x, ω) a.s.−→ F (x).

Demostracion.- Para cada x, Fn(x, ω) es una variable aleatoria resultante de sumar las nvariables aleatorias independientes, 1]−∞,x](Xk(ω)), k = 1, . . . , n, cada una de ellas con lamisma esperanza, E(1]−∞,x](Xk(ω))) = P(Xk ≤ x) = F (x). Aplicando la ley fuerte de losgrandes numeros,

Fn(x, ω) a.s.−→ F (x),

que es el resultado buscado. ♠Este resultado es previo al teorema que da nombre al apartado y que nos permite contrastar

la hipotesis de suponer que F es la distribucion comun a toda la sucesion.

Teorema 3.2 (Glivenko-Cantelli) Sea {Xk} una sucesion de variables aleatorias i.i.d. confuncion de distribucion comun F (x). Hagamos Dn(ω) = supx |Fn(x, ω) − F (x)|, entoncesDn

a.s.−→ 0.

La demostracion, muy tecnica, la omitimos y dejamos al interes del lector consultarla en eltexto de Billingsley (1995), Probability and Measure. 3rd Edition, Wiley, N.Y.

Page 32: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

26 Sucesiones de variables aleatorias. Teoremas de convergencia

3.1.2. Calculo aproximado de integrales por el metodo de Monte-Carlo

Sea f(x) ∈ C([0, 1]) con valores en [0, 1]. Una aproximacion al valor de∫ 1

0f(x)dx puede

obtenerse a partir de una sucesion de pares de variables aleatorias distribuidas uniformementeen [0, 1], (X1, Y1), (X2, Y2), . . .. Para ello hagamos,

Zi ={

1, si f(Xi) ≥ Yi

0, si f(Xi) < Yi.

Ası definidas las Zi son variables Bernoulli con parametro p = E(Zi) = P (f(Xi) ≥ Yi) =∫ 1

0f(x)dx, y aplicandoles la ley fuerte de los grandes numeros tendremos que

1n

n∑

i=1

Zia.s.−→

∫ 1

0

f(x)dx,

lo que en terminos practicos supone simular los pares (Xi, Yi), i = 1, . . . , n, con Xi e Yi ∼U(0, 1), y calcular la proporcion de ellos que caen por debajo de la grafica y = f(x).

3.1.3. Aproximacion de funciones

Sea g una funcion acotada definida sobre [0, 1], la funcion Bn definida sobre [0, 1] mediante

Bn(x) =n∑

k=0

g

(k

n

)(n

k

)xk(1− x)n−k,

es conocida como polinomio de Bernstein de grado n.El teorema de aproximacion de Weierstrass asegura que toda funcion continua sobre un

intervalo cerrado puede ser aproximada uniformemente mediante polinomios. Probemos dichaafirmacion para los polinomios de Bernstein.

Si la funcion g a aproximar es continua en [0, 1], sera uniformemente continua, entonces

∀ε > 0,∃δ > 0 tal que |g(x)− g(y)| < ε, si |x− y| < δ.

Ademas g estara tambien acotada y por tanto |g(x)| < M, ∀x ∈ [0, 1].Sea ahora un x cualquiera en [0, 1],

|g(x)−Bn(x)| =

∣∣∣∣∣g(x)n∑

k=0

(n

k

)xk(1− x)n−k −

n∑

k=0

g

(k

n

)(n

k

)xk(1− x)n−k

∣∣∣∣∣

≤n∑

k=0

∣∣∣∣g(x)− g

(k

n

)∣∣∣∣(

n

k

)xk(1− x)n−k

=∑

|k/n−x|<δ

∣∣∣∣g(x)− g

(k

n

)∣∣∣∣(

n

k

)xk(1− x)n−k +

+∑

|k/n−x|≥δ

∣∣∣∣g(x)− g

(k

n

)∣∣∣∣(

n

k

)xk(1− x)n−k

≤ ε + 2M∑

|k/n−x|≥δ

(n

k

)xk(1− x)n−k.

Page 33: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

3.2 Una curiosa aplicacion del TCL: estimacion del valor de π 27

Si Zn ∼ B(n, x), el ultimo sumatorio no es mas que

P

(∣∣∣∣Zn

n− x

∣∣∣∣ ≥ δ

)=

|k/n−x|≥δ

(n

k

)xk(1− x)n−k,

y tendremos

|g(x)−Bn(x)| ≤ ε + 2MP

(∣∣∣∣Zn

n− x

∣∣∣∣ ≥ δ

),

pero por la ley de los grandes numeros

Zn

n

P−→ x y por tanto P

(∣∣∣∣Zn

n− x

∣∣∣∣ ≥ δ

)−→ 0,

lo que demuestra la convergencia uniforme de Bn a g en [0, 1].

3.2. Una curiosa aplicacion del TCL: estimacion del valorde π

De Moivre y Laplace dieron en primer lugar una version local del TCL al demostrar que siX ∼ B(n, p),

P (X = m)√

np(1− p) ≈ 1√2π

e−12 x2

, (3.1)

para n suficientemente grande y x = m−np√np(1−p)

. Esta aproximacion nos va a servir para estudiar

la credibilidad de algunas aproximaciones al numero π obtenidas a partir del problema de laaguja de Buffon.

Recordemos que en el problema planteado por Buffon se pretende calcular la probabilidadde que una aguja de longitud l, lanzada al azar sobre una trama de paralelas separadas entresi una distancia a, con a > l, corte a alguna de las paralelas. Puestos de acuerdo sobre elsignificado de lanzada al azar, la respuesta es

P (corte) =2l

aπ,

resultado que permite obtener una aproximacion de π si, conocidos a y l, sustituimos en π =2l

aP (corte) la probabilidad de corte por su estimador natural la frecuencia relativa de corte, p, alo largo de n lanzamientos. Podremos escribir, si en lugar de trabajar con π lo hacemos con suinverso,

=am

2ln,

donde m es el numero de cortes en los n lanzamientos.El ano 1901 Lazzarini realizo 3408 lanzamientos obteniendo para π el valor 3,1415929 con

¡¡6 cifras decimales exactas!!. La aproximacion es tan buena que merece como mınimo algunapequena reflexion. Para empezar supongamos que el numero de cortes aumenta en una unidad,las aproximaciones de los inversos de π correspondientes a los m y m + 1 cortes diferirıan en

a(m + 1)2ln

− am

2ln=

a

2ln≥ 1

2n,

que si n ≈ 5000, da lugar a 12n ≈ 10−4. Es decir, un corte mas produce una diferencia mayor

que la precision de 10−6 alcanzada. No queda mas alternativa que reconocer que Lazzarini

Page 34: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

28 Sucesiones de variables aleatorias. Teoremas de convergencia

tuvo la suerte de obtener exactamente el numero de cortes, m, que conducıa a tan excelenteaproximacion. La pregunta inmediata es, cual es la probabilidad de que ello ocurriera?, y pararesponderla podemos recurrir a (3.1) de la siguiente forma,

P (X = m) ≈ 1√2πnp(1− p)

e−(m−np)2

2np(1−p) ≤ 1√2πnp(1− p)

,

que suponiendo a = 2l y p = 1/π nos da para P (X = m) la siguiente cota

P (X = m) ≤√

π

2n(π − 1).

Para el caso de Lazzarini n=3408 y P (X = m) ≤ 0,0146, ∀m. Parece ser que Lazzarini era unhombre de suerte, quizas demasiada.

Page 35: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Capıtulo 4

Procesos Estocasticos

4.1. Derivacion alternativa del Proceso de Poisson

Al describir el proceso de Poisson en el Capıtulo 4 de Montes (2007), senalabamos la exis-tencia de un metodo alternativo para derivar el proceso. Este metodo se basa en resultadoselementales de Teorıa de la Probabilidad y requiere establecer las siguientes condiciones ini-ciales para el fenomeno aleatorio, en las que la variable aleatoria Nt ={numero de sucesosocurridos hasta el tiempo t}:

CA1) si t1 < t2 < t3, los sucesos {Nt2−t1 = n} y {Nt3−t2 = m} son independientes, paracualesquiera valores no negativos de n y m,

CA2) los sucesos {Nt2−t1 = n}, n = 0, 1, . . ., constituyen una particion del espaciomuestral y P (Nt2−t1 = n) depende solo de la diferencia t2 − t1,

CA3) si t es suficientemente pequeno, entonces P (Nt ≥ 2) es despreciablemente pequenacomparada con P (Nt = 1), es decir

lımt↓0

P (Nt ≥ 2)P (Nt = 1)

= lımt↓0

1− P (Nt = 0)− P (Nt = 1)P (Nt = 1)

= 0, (4.1)

lo que equivale a

lımt↓0

1− P (Nt = 0)P (Nt = 1)

= 1. (4.2)

Es decir, la probabilidad de que ocurra al menos un suceso es, en el lımite, igual a laprobabilidad de que ocurra exactamente uno.

Comencemos por observar que dadas las tres condiciones se deduce que P (N0 = 0) = 1,P (N0 = k) = 0, k ≥ 1, y P (Nt = 0) es una funcion monotona decreciente. Estas propiedadesjunto las condiciones CA1 y CA2 nos permiten escribir, para t1 < t2 < t3, t2 − t1 = t yt3 − t2 = s,

P (Nt+s = 0) = P (Nt3−t1 = 0)= P (Nt2−t1 = 0, Nt3−t2 = 0)= P (Nt2−t1 = 0)P (Nt3−t2 = 0)= P (Nt = 0)P (Ns = 0).

Page 36: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

30 Procesos Estocasticos

Se trata por tanto de una funcion aditiva. Un funcion exponencial que cumple esta condicionpuede ser la solucion. Ası, podemos suponer que

P (Nt = 0) = pt. (4.3)

Obviamente se cumple que 0 ≤ P (Nt = 0) ≤ 1 por tratarse de una probabilidad. Ello suponeque p puede responder a una de las tres alternativas siguientes:

1. p = 0, lo que implica P (Nt > 0) = 1, ∀t, y supone que ocurriran una infinidad de sucesosen cualquier intervalo de tiempo. Un proceso de estas caracterısticas carece de interes.

2. p = 1, supone que no ocurre nunca ningun suceso y estamos nuevamente ante un fenomenocarente de interes.

3. 0 < p < 1, que representa la unica alternativa de interes y de la que nos vamos a ocuparen adelante.

Supuesto por tanto que en (4.3) 0 < p < 1, podemos escribir p = e−λ, con λ = − ln p > 0.Podremos reescribir (4.3) de la forma

P (Nt = 0) = e−λt. (4.4)

Para determinar el valor de P (Nt = k), observemos en primer lugar que

lım∆t→0

P (N∆t = k)∆t

= 0, k ≥ 2. (4.5)

En efecto,

0 ≤ P (Nt = k) ≤∑

k≥2

P (Nt = k) = 1− P (Nt = 0)− P (Nt = 1), k ≥ 2,

y de aquı,

0 ≤ P (N∆t = k)∆t

≤ 1− P (N∆t = 0)− P (N∆t = 1)P (N∆t = 1)

× P (N∆t = 1)∆t

. (4.6)

Si aplicamos ahora (4.1) al primer factor del ultimo miembro de la desigualdad obtendrıamos(4.5) siempre que

lım∆t→0

P (N∆t = 1)∆t

se mantuviera finito, pero si recurrimos a (4.2),

lım∆t→0

[1− P (N∆t = 0)]/∆t

P (N∆t = 1)/∆t= 1.

Es decir,

lım∆t→0

1− P (N∆t = 0)∆t

= lım∆t→0

P (N∆t = 1)∆t

, (4.7)

pero el primer lımite es justamente −P ′(N0 = 0), que existe dada la expresion (4.4), y el segundolımite sera por tanto finito. En definitiva, (4.5) se cumple y si tenemos en cuenta ademas queP (N0 = k) = 0, se deduce que

P ′(N0 = k) = 0, k ≥ 2, (4.8)

lo que prueba la existencia de dicha derivada.Supongamos ahora que {el suceso ha ocurrido k veces en el intervalo [0, t + ∆t[ }. Tres son

las posibles alternativas para este hecho,

Page 37: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

4.2 Planificacion de semaforos 31

k − 1 ocurrencias en [0, t[ y 1 en [t, t + ∆t[,

k ocurrencias en [0, t[ y 0 en [t, t + ∆t[, o

a lo sumo k − 2 ocurrencias en [0, t[ y al menos 2 en [t, t + ∆t[.

De acuerdo con las CA1 y CA2 tendremos

P (Nt+∆t = k) = P (Nt = k − 1)P (N∆t = 1) + P (Nt = k)P (N∆t = 0) + R. (4.9)

De aquı,

P (Nt+∆t = k)− P (Nt = k) = P (Nt = k)[P (N∆t = 0)− 1] + P (Nt = k − 1)P (N∆t = 1) + R,(4.10)

y dividiendo por ∆t, pasando al lımite y teniendo en cuenta (4.3), (4.5) y que por (4.7)−P ′(N0 =0) = P ′(N0 = 1), obtendremos

P ′(Nt = k) = λ[P (Nt = k − 1)− P (Nt = k)], k = 1, 2, . . . , (4.11)

un sistema recursivo de ecuaciones diferenciales lineales de primer orden, cuyas condicionesiniciales son, recordemos, P (N0 = 0) = 1, P (N0 = k) = 0, k ≥ 1, derivadas de las condicionesiniciales impuestas al fenomeno. Conocemos ademas una solucion particular, P (Nt = 0) = e−λt,la solucion general sera de la forma

P (Nt = k) = e−λtCk(t). (4.12)

Respecto de las condiciones iniciales de Ck(t), por (4.4), CO(t) = 1, y

P (N0 = 0) = 1 ⇒ CO(0) = 1P (N0 = k) = 0 ⇒ CO(k) = 0, ∀k ≥ 1.

Sustituyendo (4.15) en (4.11) obtenemos

C ′k(t) = λCk−1(t), (4.13)

y aplicando la recursividad y los valores iniciales encontrados, llegamos a

Ck(t) =(λt)k

k!, (4.14)

y finalmente,

P (Nt = k) =(λt)k

k!e−λt, k ≥ 0. (4.15)

Es decir, que la variable Nt se distribuye como una Poisson de parametro λt.

4.2. Planificacion de semaforos

La instalacion de semaforos es una decision que toman los ingenieros de trafico en funcionde una serie de criterios, entre los cuales el mas decisivo es una elevada tasa de accidentes enel lugar examinado. El proceso de Poisson es una herramienta valida para estimar la tasa deaccidentes en un punto conflictivo de trafico. Veamoslo en un ejemplo hipotetico.

En el cruce de calles que se muestra en la Figura (4.1) confluyen dos calles de sentido unico,N-S y E-O, y cuenta como unica senalizacion con sendas senales de Stop. La tasa de accidentes

Page 38: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

32 Procesos Estocasticos

STOP STOP E-O

S-N

| | || | || | | | | || | | | | | | | | | | |

0 500 1000 1500 2000 2500 3000

01

23

45

segundos

llega

das

de a

utom

óvile

s

| | ||| | || | | | | | | || || | | | | | ||| | |

N−S

E−O

Figura 4.1: Esquema del cruce de calles (izquierda) y secuencia de llegadas de automoviles enambas calles (derecha)

es elevada, probablemente debida a que los conductores no respetan la senal de Stop, a lo sumoreducen su velocidad. Esta es la hipotesis de manejan los ingenieros de trafico de la ciudad.Para corroborarla deben estimar la media de accidentes que cabe esperar que ocurran si dichahipotesis es cierta.

La estimacion requiere, en primer lugar, un analisis del trafico en el cruce. Concretamentedatos referidos a los tiempos de llegada de los vehıculos en cada una de las dos calles. La Figura(4.1) muestra parte de las dos secuencias de llegada. Una primera y razonable hipotesis, quepuede corroborarse con los datos observados, es aceptar que se trata de sendos proceso de Pois-son con igual parametro, λ, y que los tiempos entre llegadas en cada sentido son independientes.Si por TE y TN designamos los tiempos de llegadas en el sentido E-O y N-S, respectivamente,ambos se distribuyen Exp(λ).

Si la hipotesis de que los conductores no se detienen es cierta, dos vehıculos colisionarancuando lleguen ambos en un corto intervalo de tiempo, |TE−TN | ≤ t0. El diferencial de tiempo t0se calcula en funcion de la longitud de los coches y de su velocidad. Si por simplificar admitimosque tienen igual longitud, l, y circulan a igual velocidad, v, t0 = l/v. Por ejemplo, para coches de4,5 metros de longitud que circulen a 40 km/hora (unos 11 m/s) t0 ≈ 0,4 segundos. Ocurrira unaccidente si los coches llegan con un lapso de tiempo menor a 4 decimas de segundo.

Para poder contar los accidentes definimos una nueva variable

Yi ={

1, si ∃ al menos un j tal que |T (i)E − T

(j)N | ≤ t0;

0, en caso contrario,

donde T(i)E es el tiempo de llegada del i-esimo automovil en sentido E-O, y T

(j)N es el tiempo de

llegada del j-esimo automovil en sentido N-S. Tal como la condicion esta planteada, comparamosla llegada de un automovil fijo, el i-esimo, en la direccion E-O con todos los automoviles quellegan en la otra direccion. Podrıamos tambien expresar la condicion de la forma

mınj|T (i)

E − T(j)N | ≤ t0.

Page 39: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

4.2 Planificacion de semaforos 33

El numero total de accidentes en un intervalo de tiempo [0, t] vendra dado por la suma,

Xt =Nt∑

i=1

Yi. (4.16)

Hemos de llamar la atencion sobre esta suma porque su lımite superior es una variable aleatoria,concretamente el numero de llegadas que han tenido lugar en la direccion E-O durante elintervalo de tiempo [0, t], cuya distribucion es Po(λ). A la hora de calcular su esperanza lo massencillo es recurrir a la esperanza condicionada y hacer uso de la igualdad,

E(Xt) = E[E(Xt|Nt)],

pero

E(Xt|Nt = nt) =nt∑

i=1

E(Yi) = ntE(Yi).

De aquıE(Xt) = E[E(Xt|Nt)] = E[NtE(Yi)] = λtE(Yi).

Por otra parteE(Yi) = P (mın

j|T (i)

E − T(j)N | ≤ t0). (4.17)

Para obtener esta probabilidad podemos recurrir a condicionarla,

P (mınj|T (i)

E − T(j)N | ≤ t0) =

∫ ∞

0

P (mınj|T (i)

E − T(j)N | ≤ t0|T (i)

E = t)fE(t)dt (4.18)

=∫ ∞

0

P (mınj|t− T

(j)N | ≤ t0)fE(t)dt (4.19)

=∫ ∞

0

P (t− t0 ≤ mınj

T(j)N ≤ t + t0)fE(t)dt, (4.20)

donde fE(t) es la funcion densidad de T(i)E . El paso de (4.18) a (4.19) se justifica porque las

variables T(i)E y T

(j)N son independientes ∀j. El suceso {t− t0 ≤ mınj T

(j)N ≤ t + t0} que aparece

en la integral (4.20) equivale a que en el intervalo [t− t0, t+ t0] tenga lugar al menos una llegadade vehıculos en sentido N-S, su complementario supone que no hay ninguna llegada en dichointervalo y por tanto,

P (t− t0 ≤ mınj

T(j)N ≤ t + t0) = 1− P (N[t−t0,t+t0] = 0) (4.21)

= 1− P (N2t0 = 0) (4.22)= 1− exp(−2λt0). (4.23)

El paso de (4.21) a (4.22) se justifica por la propiedad de los incrementos independientes esta-cionarios. Sustituyendo (4.23) en (4.20) y a su vez en (4.17)

E(Yi) = P (mınj|T (i)

E − T(j)N | ≤ t0)

=∫ ∞

0

(1− exp(−2λt0))fE(t)dt

= 1− exp(−2λt0).

Page 40: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

34 Procesos Estocasticos

Por ultimoE(Xt) = λt(1− exp(−2λt0)),

que podemos expresar tambien en terminos de numero medio de accidentes por unidad detiempo.

E(Xt)t

= λ(1− exp(−2λt0)).

Si, como en el ejemplo que proponıamos t0 = 0,4 segundos, la media de accidentes por segundoserıa

E(Xt)t

= λ(1− exp(−0,8λ)).

Para utilizar la hora como unidad de tiempo haremos el cambio λh = 3600λ y al sustituir en laanterior expresion,

Mh =3600E(Xt)

t= λh

[1− exp

(−0,8λh

3600

)],

donde t se expresa ahora en horas. En la grafica de la Figura 4.2 vemos la evolucion de Mh amedida que aumenta λh.

0 10 20 30 40 50 60

0.0

0.2

0.4

0.6

0.8

1.0

tasa de llegadas

med

ia d

e ac

cide

ntes

por

hor

a

Figura 4.2: Media de accidentes por hora en funcion de la tasa de llegadas

4.3. Cadenas de Markov continuas en el tiempo: fiabilidadde un multiprocesador

Disponen de un computador con dos procesadores independientes y queremos modelizar elcomportamiento del sistema a lo largo del tiempo. Se trata de un sistema con tres estados:

s1 = 0, que indica que ambos procesadores no funcionan.

s1 = 1, que indica que solo uno de los procesadores funciona.

s1 = 2, que indica que ambos procesadores funcionan.

Page 41: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

4.3 Cadenas de Markov continuas en el tiempo: fiabilidad de un multiprocesador35

El modelo probabilıstico que describe los tiempos de espera, sea de un fallo o de una reparacion,es el modelo exponencial. Supondremos por tanto que el tiempo de fallo Tf ∼ Exp(λ) y el tiempode reparacion Tr ∼ Exp(µ), y que ambos son independientes.

El proceso Xt, t ≥ 0 designa el estado del sistema en el instante t. Se trata de una cadenade Markov continua en el tiempo y homogenea. Para comprobarlo obtendremos los tiempos detransicion para cada cada estado, y siendo estos exponenciales la propiedad de falta de memoriahara el resto. Veamos dichos tiempos.

Transicion 0 → 1.- Una transicion de este tipo se produce cuando ambos procesadores estanfuera de servicio y uno de ellos es reparado. Si T01 es el tiempo de transicion correspon-diente y Tr1 y Tr2 los tiempos de reparacion de los procesadores, T01 coincidira con eltiempo del que primero este reparado, luego

T01 = mın(Tr1 , Tr2),

y de aquı

P (T01 > t) = P (mın(Tr1 , Tr2) > t)= P (Tr1 > t, Tr2 > t)= e−µt × e−µt

= e−2µt,

y T01 ∼ Exp(2µ).

Transicion 1 → 2.- Esta transicion implica que el procesador averiado ha sido reparado ypor tanto T12 = Tr ∼ Exp(µ).

Transicion 1 → 0.- Para que ello ocurra el procesador que funciona debe fallar y T10 = Tf ∼Exp(λ).

Transicion 2 → 1.- Uno de los dos procesadores en funcionamiento ha de fallar y T21 sera eltiempo del que menos tarde en hacerlo, por tanto

T21 = mın(Tf1 , Tf2),

y razonado como antes, T21 ∼ Exp(2λ).

El resto de transiciones, 0 → 2 y 2 → 0, tienen probabilidades nulas.La obtencion de π(t), la distribucion sobre los estados en el tiempo t, requiere un pequeno

rodeo. Obtendremos en primer lugar la matriz de transicion para el instante de tiempo ∆t,P(∆t), y estableceremos su relacion con π(t) y π(t + ∆t).

Consideremos, por ejemplo, los sucesos {Xt+∆t = 2} y {Xt = 1}, que representan “el sistemaesta en 2 en el instante de tiempo t + ∆t” y “el sistema esta en 1 en el instante de tiempo t”.Con la consabida notacion,

p12(∆t) = P (Xt+∆t = 2|Xt = 1),

Page 42: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

36 Procesos Estocasticos

representa la correspondiente probabilidad de transicion. Para su calculo escribimos,

p12(∆t) = P (Xt+∆t = 2|Xt = 1)= P (t < Tr ≤ t + ∆t|Tr ≥ t)

=FTr (t + ∆t)− FTr (t)

1− FTr (t)

=e−µt − e−µ(t+∆t)

e−µt

= 1− e−µ∆t

= µ∆t + o(∆t).

De forma analoga podemos obtener las probabilidades para las restantes transiciones entrediferentes estados para un instante de tiempo ∆t. Para las transiciones a un mismo estadoutilizaremos las relaciones,

p00(∆t) = P (Xt+∆t = 0|Xt = 0) = P (mın(Tr1 , Tr2) > t + ∆t|mın(Tr1 , Tr2) > t),

p11(∆t) = P (Xt+∆t = 1|Xt = 1) = P (Tf > t + ∆t, Tr > t + ∆t|Tf > t, Tr > t),

p22(∆t) = P (Xt+∆t = 2|Xt = 2) = P (mın(Tf1 , Tf2) > t + ∆t|mın(Tf1 , Tf2) > t).

Podemos generalizar (4.48) de Montes (2007) mediante la expresion matricial siguiente,

π0(t + ∆t)π1(t + ∆t)π2(t + ∆t)

=

1− 2µ∆t λ∆t 02µ∆t 1− (µ + λ)∆t 2λ∆t

0 µ∆t 1− 2λ∆t

π0(t)π1(t)π2(t)

+ o(∆t).

Con unas sencillas operaciones con matrices podemos reescribir la anterior igualdad de la forma

π0(t + ∆t)− π0(t)π1(t + ∆t)− π1(t)π2(t + ∆t)− π2(t)

=

−2µ λ 02µ −(µ + λ) 2λ0 µ −2λ

π0(t)π1(t)π2(t)

∆t + o(∆t).

Y dividiendo ambos lados por ∆t y haciendo que ∆t → 0,

dπ(t)dt

= Aπ(t). (4.24)

La matriz A recibe el nombre de generador de la cadena de Markov.La solucion de la ecuacion diferencia matricial (4.24) con condicion inicial dada por π(0) =

π, distribucion inicial sobre los estados, es

π(t) = eAtπ, t ≥ 0,

donde la matriz exponencial viene dada por la serie

eAt = I + At +12!

(At)2 + · · · ,

que converge para todo t finito.

Page 43: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

4.4 Procesos de nacimiento y muerte (Birth-death) 37

La solucion del anterior sistema de ecuaciones no es sencilla, pero bajo ciertos supuestospuede resolverse con facilidad. Uno de ellos es suponer que las πi son constantes en el tiempo,la derivada en (4.24) sera nula y Aπ(t) = 0. El correspondiente sistema de ecuaciones es

−2µπ0 + λπ1 = 0,

+µπ1 − 2λπ2 = 0,

π0 + π1 + π2 = 1,

con solucion

π =1

(λ + µ)2

λ2

2µλµ2

.

Se observa que la probabilidad de que ambos procesadores fallen vale π0 = [λ/(λ + µ)]2. Sepuede comprobar que en un modelo para un solo procesador y con la misma distribucion paralos tiempos de fallo y reparacion π0 = λ/(λ + µ), mayor que la anterior.

4.4. Procesos de nacimiento y muerte (Birth-death)

Una cadena de Markov en la que solo estan permitidas las transiciones entre estados vecinosse denomina un proceso de nacimiento y muerte. Veamos dos ejemplos este tipo de procesos,con un numero infinito de estados el primero, y con un numero finito el segundo.

4.4.1. Colas de longitud infinita

El diagrama de la Figura 4.3 muestra las transiciones entre estados vecinos, las unicasposibles. Cuando el sistema cambia de i a i + 1 decimos que se ha producido un nacimiento,mientras que el paso contrario i a i − 1 denota una muerte. Con la notacion habitual, πj(t)denota la probabilidad de que el proceso este en el estado j en el instante t. Podemos tambiendecir que hay una poblacion j en el instante t.

Los nacimientos y las muertes muertes estan generados por un proceso de Poisson de maneraque los tiempos entre ellos son variables exponenciales independientes. Ası, el tiempo entrenacimientos, τB ∼ Exp(λi), y el tiempo entre muertes, τD ∼ Exp(µj), indicando los subındicesque los parametros dependen del estado donde se encuentra el sistema.

i+1 µ i+2

µ

i i+1

λ i µ i λ i-1 λ i+1

Figura 4.3: Diagrama de transicion en un proceso de nacimiento y muerte

Este tipo de modelos se han utilizan en teorıa de colas para modelizar su evolucion. Unnacimiento se corresponde con la llegada de un individuo a la cola y una muerte con su abandono

Page 44: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

38 Procesos Estocasticos

por haber sido ya atendido. Nos vamos a ocupar de una cola hipotetica sin restricciones encuanto a su longitud, en teorıa puede ser infinita. En una cola de estas caracterısticas, eltiempo que ha de esperar en la cola el n-esimo llegado hasta que empieza a ser atendido puedeexpresarse

Wn = max(0, Wn−1 + τs − τi),

donde τs es el tiempo que tarda en ser servido el (n− 1)-esimo cliente de la cola y τi el tiempoentre la llegadas de los clientes n− 1 y n.

Siguiendo el procedimiento del ejemplo anterior podemos escribir

π(t + ∆t) = Bπ(t),

donde la matriz B se obtiene por un razonamiento similar, la unica diferencia ahora es que lamatriz tiene infinitas filas y columnas.

B =

1− λ0∆t µ1∆t 0 · · · · · ·λ0∆t 1− (µ1 + λ1)∆t µ2∆t 0 · · ·

0 λ1∆t 1− (µ2 + λ2)∆t µ2∆t 0...

......

......

.

Operando, dividiendo por ∆t y haciendo que ∆t → 0,

dπ(t)dt

= Aπ(t). (4.25)

donde la matriz generador A vale

A =

−λ0 µ1 0 · · · · · ·λ0 −(µ1 + λ1) µ2 0 · · ·0 λ1 −(µ2 + λ2) µ2 0...

......

......

.

Si se alcanza equilibrio π′ = 0 y de Aπ = 0 obtendremos

π1 = ρ1π0,π2 = ρ2π1 = ρ1ρ2π0,· · · · · · · · ·πj = ρjπj−1 = ρ1 · · · ρjπ0,

donde ρj = λj−1/µj , j > 1.Hagamos rj = ρ1 · · · ρj , con r0 = 1. Para que

∑i≥0 πi = 1 debe cumplirse,

i≥0

πi =∑

i≥0

ρ1 · · · ρiπ0 = π0

i≥0

ri = 1

lo que exige que la serie∑

i≥0 ri sea convergente. Si ası ocurre,

π0 =1∑

i≥0 ri,

y la cadena alcanza una distribucion de equilibrio,

πj = rjπ0 =rj∑i≥0 ri

, j ≥ 0. (4.26)

En caso contrario, el denominador de (4.26) es infinito y las πj = 0, ∀j y no existe distribucionde equilibrio.

Page 45: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

4.4 Procesos de nacimiento y muerte (Birth-death) 39

4.4.2. Colas con parametros de nacimiento y muerte constantes y lon-gitud finita

Una variacion de interes en la situacion anterior es suponer que los parametros de los tiemposde nacimiento y muerte no dependen del estado, son constantes, λi = λ, µi = µ, y que la colaes finita y no puede sobrepasar los N individuos.

Las matrices A y B son de dimension N ×N y (4.25) proporciona el siguiente sistema deecuaciones,

dπ0/dt = −λπ0 + µπ1,dπ1/dt = +λπ0 − (λ + µ)π1 + µπ2,· · · · · · · · ·dπN/dt = +λπN−1 − µπN .

La primera y la ultima ecuaciones contienen solo dos terminos porque aquella no admite salidasy esta no permite mas llegadas. Si existe distribucion de equilibrio, las derivadas seran nulas ylas soluciones (4.26) adquieren la forma

πj = ρjπ0, 0 ≤ j ≤ N,

donde ρ = λ/µ. Como la colas deben contener necesariamente algun numero de clientes j, 0 ≤j ≤ N , se cumple,

N∑

j=0

ρjπ0 = 1 =⇒ π0 =1− ρ

1− ρN+1.

La cola se saturara con una probabilidad

πN =ρN (1− ρ)1− ρN+1

.

Por ejemplo, para una ratio nacimiento/muerte de 1/2 y con un tamano maximo de cola de 10clientes, la probabilidad de saturacion es ≈ 4,8× 10−4.

4.4.3. Aplicacion a la transmision de datos a traves de una red decomunicaciones

El movimiento de paquetes de datos a traves de los nodos de una red de comunicacion puededescribirse mediante los modelos de colas anteriores. Los tiempos de llegada de los paquetes, losde espera en el nodo y el de procesamiento en la CPU son cantidades aleatorias cuya modelohabitual es una Exponencial. Supongamos que los nodos funcionan con un protocolo del tipoprimer llegado/primer servido. Vamos a considerar los casos de buffer infinito y buffer finito.

Buffer infinito

Si las llegadas tienen lugar segun un proceso de Poisson homogeneo de parametro λ llegadaspor unidad de tiempo, y el tiempo en ser despachado el paquete es una Exp(µ), la expresion(4.26) adquiere la forma,

πi = ρiπ0, 0 ≤ i,

con ρ = λ/µ. La serie∑

i≥0 ρi converge y suma (1 − ρ)−1, solo si ρ < 1, unica situacion quepor otra parte tiene sentido. Tendremos como distribucion de equilibrio

πi = ρi(1− ρ), i ≥ 0.

Page 46: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

40 Procesos Estocasticos

Es interesante calcular el numero medio de paquetes que habra en la cola,

E(N) =∑

i≥0

iπi = (1− ρ)∑

i≥0

iρi. (4.27)

Se trata de una serie aritmetico-geometrica cuya suma se obtiene de la siguiente forma. Sidenotamos por S la suma de la serie,

S = 0ρ0 + 1ρ1 + 2ρ2 + 3ρ3 + 4ρ4 + · · · (4.28)ρS = + 0ρ1 + 1ρ2 + 2ρ3 + 3ρ4 + · · · (4.29)

Restando (4.29) de (4.28),

S(1− ρ) =∑

j≥1

ρj =ρ

1− ρ, =⇒ S =

ρ

(1− ρ)2,

y sustituyendo en (4.27),E(N) =

ρ

1− ρ.

Buffer finito

Con las mismas caracterısticas del sistema anterior, pero con un buffer de capacidad finita,N , es interesante obtener la probabilidad de perder un paquete. Precisemos que entendemospor ello. Supongamos que en instante t el buffer esta lleno, un paquete esta siendo procesado yotro paquete esta de camino. Si el tiempo que transcurre entre el ultimo paquete que llego y elque esta en camino, τi, es menor que el tiempo que tarda la CPU en procesar su paquete, τs,el paquete en camino se perdera. La probabilidad de este suceso, A, es

P (A) = P ({buffer lleno} ∩ {τi < τs})

=ρN (1− ρ)1− ρN+1

× P (τs − τi > 0),

porque los sucesos {buffer lleno} y {τs − τi > 0} son independientes. Los tiempos τs y τi sontambien independientes, su densidad conjunta vale

fτsτi(ts, ti) = µλ exp(−µts) exp(−λti), ts, ti ≥ 0,

y

P (τs − τi > 0) = λ

∫ ∞

0

exp(−λti)[∫ ∞

ti

µ exp(−µts)dts

]dti =

λ

λ + µ=

ρ

1 + ρ.

Sustituyendo,

P (A) =ρN+1(1− ρ)

(1− ρN+1)(1 + ρ).

Para ρ = 1/2 y N = 10, la probabilidad de perder el paquete es ≈ 1,6× 10−4, tres veces menorque la que habıamos calculado para llenar el buffer en las mismas condiciones.

Page 47: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Capıtulo 5

Transformacion lineal de unproceso estacionario

5.1. Procesos autoregresivos de medias moviles (ARMA)

A partir de una sucesion de ruido blanco, Zt, podemos definir un proceso mediante el filtradolineal finito del proceso Zt,

Xt = Zt +q∑

j=1

βjZt−j . (5.1)

El nuevo proceso recibe el nombre de proceso de medias moviles de orden q, MA(q).Otro tipo de proceso puede definirse mediante la combinacion lineal de los elementos que le

preceden,

Xt =p∑

i=1

αiXt−j + Zt, (5.2)

que recibe el nombre de proceso autoregresivo de orden p, AR(p). Observese que de esta defi-nicion se deduce que Zt es el resultado de aplicar un filtro lineal finito al proceso Xt.

La combinacion de ambos tipos de procesos da lugar a un proceso autoregresivo de mediasmoviles de orden (p,q), ARMA(p,q), cuya expresion es,

Xt =p∑

i=1

αiXt−j + Zt +q∑

j=1

βjZt−j . (5.3)

A efectos de simplificar la notacion, podemos introducir el operador desplazamiento haciaatras, B, que actua de la siguiente forma,

BXt = Xt−1;

se aplica reiteradamente, B2Xt = B(BXt) = BXt−1 = Xt−2, y en general, BmXt =Xt−m;

el operador nulo, B0, se representa mediante 1, de forma que 1Xt = Xt;

las funciones matematicas de B se interpretan de la forma habitual, por ejemplo,

(1−B/2)−1Xt =∑

i≥0

(B/2)iXt = 2−iXt−i.

Page 48: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

42 Transformacion lineal de un proceso estacionario

Con este operador, un proceso ARMA(p,q) puede expresarse,

φ(B)Xt = θ(B)Zt, (5.4)

donde φ(B) y θ(B) so polinomios de grado p y q en B, respectivamente, que cumplen la condicionφ(0) = θ(0) = 1, impuesta para evitar confusiones derivadas de cambios de escala en el proceso.Por ejemplo, si φ(B) = 4−B y θ(B) = 2 + 3B, (5.4) se escribe de la forma,

4Xt −Xt−1 = 2Zt + 3Zt−1,

con Zt un ruido blanco de varianza σ2. Un expresion equivalente serıa,

Xt − 14Xt−1 = Z ′t +

32Z ′t−1,

con Z ′t un ruido blanco de varianza σ2/4. Los polinomios en B del nuevo proceso, φ(B) = 1−B/4y θ(B) = 1 + 3B/2, cumplen con la condicion.

Funciones de momento y espectro del proceso MA(q)

En el proceso MA(q), Xt = θ(B)Zt, el polinomio θ(B) es un polinomio de grado q,

θ(B) =q∑

j=0

βjBj ,

con β0 = 1.Como Zt es un ruido blanco de varianza σ2, la media y varianza de Xt valen,

µ(t) = 0, σ2(t) = σ2

q∑

j=1

β2j .

La funcion de autocovarianza y autocorrelacion, que ahora coinciden, valen

R(k) = E(Xtxt−k)

= E

q∑

j=0

βjZt−j

(q∑

i=0

βiZt−k−i

)

=q∑

j=0

q∑

i=0

βjβiE(Zt−jZt−k−i). (5.5)

Como Zt es una sucesion de ruido blanco, las esperanzas que aparecen en (5.5) seran distintasde cero solo cuando t− j = t− k − i, es decir, j = i + k. Ası,

R(k) =

σ2∑q−k

i=0 βi+kβi, k = 0, 1, . . . , q;

0, k > q.(5.6)

Un rasgo caracterıstico de los procesos MA(q) es el corte que se produce en la funcion deautocovarianza para valores de k > q.

El espectro del proceso se deduce facilmente de la expresion que obtuvimos para el espectrodel filtrado lineal de una sucesion de ruido blanco, el denominado proceso lineal general (vease(5.15) de Montes (2007)). Esta expresion era

PX(ω) = σ2|h(ω)|2,

Page 49: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

5.1 Procesos autoregresivos de medias moviles (ARMA) 43

donde |h(ω)| es la funcion de transferencia, que ahora vale

h(ω) = θ(e−i2πω) =q∑

j=0

βje−i2πωj .

Ası pues,

PX(ω) = σ2|h(ω)|2

= σ2

q∑

j=0

βj cos 2πωj

2

+

q∑

j=0

βj sin 2πωj

2

= σ2

1 +

q∑

j=1

βj cos 2πωj

2

+

q∑

j=1

βj sin 2πωj

2

(5.7)

Ejemplo 5.1 (Proceso MA(1)) Si Xt es un proceso MA(1), θ(B) = β0 + β1B = 1 + βB.Sustituyendo en (5.6) y en (5.7) obtendremos la funcion de autocorrelacion y el espectro, res-pectivamente.

R(0) = σ2X = (1 + β2)σ2, R(1) = βσ2,

donde σ2 es la varianza de Zt.Para el espectro,

PX(ω) = σ2[(1 + β cos 2πω)2 + (β sin 2πω)2]= σ2(1 + 2β cos 2πω + β2).

Funciones de momento y espectro del proceso AR(p)

El proceso AR(p), (5.2), expresa Xt en funcion de los p valores anteriores del proceso masun ruido blanco, Xt =

∑pi=1 αiXt−j + Zt. Esta forma de presentar el proceso es muy intuitiva

y justifica el nombre que recibe.Para el calculo del espectro es mas conveniente ver el proceso como un ruido blanco resultado

de aplicar un filtro lineal finito a Xt, Zt = φ(B)Xt, con

φ(B) = 1−p∑

i=1

αiBi.

Si recordamos ahora que el espectro de Zt es constante y vale σ2 y aplicamos la expresion (5.13)de Montes (2007),

PZ(ω) = |φ(e−i2πω)|2PX(ω) = σ2.

Despejando PX(ω),

PX(ω) = σ2

[1−

p∑

l=1

αl cos 2πωl

]2

+

[p∑

l=1

αl sin 2πωl

]2

−1

. (5.8)

La existencia de PX(ω) esta condicionada a que el denominador de (5.8) sea siempre distintode 0, lo que exige imponer ciertas restricciones a los coeficientes de φ(B). Por ejemplo, parap = 1 y α1 = 1, (5.8) adquiere la forma,

PX(ω) =σ2

2(1− cos2πω),

Page 50: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

44 Transformacion lineal de un proceso estacionario

que vale 0 para ω = 0. El problema enlaza directamente con la WSS del proceso. En efecto, sidesarrollamos [φ(B)]−1 como serie de potencias de B, se puede expresar Xt como un procesolineal general

Xt = [φ(B)]−1Zt

=(∑

j≥0

ajBj)Zt

=∑

j≥0

ajZt−j . (5.9)

De acuerdo con (5.18) de Montes (2007), la condicion para que el proceso sea WSS es que∑j≥0 a2

j < ∞. Esta condicion puede a su vez expresarse en terminos de los αi a traves delsiguiente teorema, cuya demostracion puede consultarse en la pagina 76 de Diggle (1990).

Teorema 5.1 La condicion necesaria y suficiente para que un proceso AR(p), φ(B)XY = Zt,sea WSS es que el modulo de todas la raıces del polinomio φ(u) sea mayor que la unidad.

Las funciones de autocorrelacion y autocovarianza coinciden porque de (5.9) se deduce queµ(t) = 0. Para su obtencion recurriremos a la expresion original de Xt,

Xt =p∑

i=1

αiXt−j + Zt.

Multiplicando ambas partes de la igualdad por Xt−k, tomando esperanzas y teniendo en cuentaque Xt−k y Zt son independientes,

R(k) = E(XtXt−k) =p∑

i=1

αiE(Xt−iXt−k).

Pero E(Xt−iXt−k) = R(i− k) y por tanto,

R(k) =p∑

i=1

αiR(i− k), k = 1, 2, . . . (5.10)

Si dividimos por R(0), obtendremos una expresion analoga para la funcion de correlacion,

ρ(k) =p∑

i=1

αiρ(i− k), k = 1, 2, . . . (5.11)

que proporciona un sistema de ecuaciones conocido como las ecuaciones de Yule-Walker. Estasecuaciones y las (5.10) permiten calcular ρ(k) y R(k) a partir de los coeficientes αi, pero puedentambien usarse en sentido inverso para estimar dichos coeficientes a partir de las autocorrela-ciones o correlaciones muestrales.

Ejemplo 5.2 El proceso Xt es un proceso AR(2),

Xt = α1Xt−1 + α2Xt−2 + Zt.

Para obtener su funcion de autocorrelacion utilizamos las ecuaciones de Yule-Walker (5.11),

ρ(k) = α1ρ(k − 1) + α2ρ(k − 2). (5.12)

Page 51: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

5.1 Procesos autoregresivos de medias moviles (ARMA) 45

Se trata de una ecuacion en diferencias homogenea cuyas soluciones dependen a su vez de lassoluciones de su ecuacion caracterıstica

λ2 − α1λ− α2 = 0. (5.13)

Supondremos que hay dos soluciones reales y distintas, λ1 y λ2, en cuyo caso la solucion de(5.12) es

ρ(k) = aλk1 + bλk

2 .

La condiciones iniciales determinan los valores de a y b. Ası, sabemos que

ρ(0) = 1 =⇒ b = 1− a.

Por otra parte, si k = 1 de (5.12) se obtiene

ρ(1) = α1 + α2ρ(1),

peroρ(1) = aλ1 + (1− a)λ2.

Despejando ρ(1) e igualando obtendremos el valor de a.Supongamos que α1 = 0,4 y α2 = 0,2. Con estos valores las dos raıces de (5.13) son

λ1 ≈ 0,69 y λ2 ≈ −0,29, ρ(1) = 0,5 y a ≈ 0,81. Puede comprobarse que con los valoresasignados a α1 y α2 raıces de φ(u) = 0 tiene ambas modulos mayores que 1, tal como exige elTeorema 5.1 para que el proceso sea WSS.

La expresion general de las correlaciones del proceso es

ρ(k) = 0,81× 0,69k + 0,19× 0,29k.

Funciones de momento y espectro del proceso ARMA(p,q)

Recordemos que el proceso se expresa de la forma

Xt =p∑

i=1

αiXt−j + Zt +q∑

j=1

βjZt−j ,

o en forma polinomicaφ(B)Xt = θ(B)Zt.

Aplicando los resultados del filtrado lineal de un ruido blanco ((5.18) de Montes (2007)), elespectro del proceso verifica,

|φ(e−i2πω)|2PX(ω) = σ2|θ(e−i2πω)|2.Y de aquı,

PX(ω) = σ2|h(ω)|2 = σ2|θ(e−i2πω)|2|φ(e−i2πω)|−2,

que bajo el supuesto de WSS se expresa,

PX(ω) = σ2

1 +

q∑

j=1

βj cos 2πωj

2

+

q∑

j=1

βj sin 2πωj

2

×

[1−

p∑

l=1

αl cos 2πωl

]2

+

[p∑

l=1

αl sin 2πωl

]2

−1

. (5.14)

Page 52: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

46 Transformacion lineal de un proceso estacionario

Las condiciones para que el proceso sea WSS son las mismas que las exigidas para el procesoAR(p).

Por lo que respecta a la funcion de autocorrelacion, su obtencion es mas sencilla si expresa-mos el proceso de la forma,

Xt = [φ(B)]−1θ(B)Zt =

j≥0

ajBj

Zt =

j≥0

ajZt−j ,

donde los coeficientes aj dependen del desarrollo en serie de [φ(B)]−1.

Ejemplo 5.3 El proceso Xt es el resultado de aplicar un filtro lineal a un ruido blanco Gaus-siano, Zt, de varianza σ2. En concreto,

φ(B)Xt = θ(B)Zt,

un proceso ARMA(2,2) con

φ(B) = 1− 1,2B + 0,4B2, y θ(B) = 1− 0,8B + 0,1B2.

El proceso es estacionario porque las raıces de φ(u) = 0 son

u1 =32

+12i, u1 =

32− 1

2i,

cuyo modulo es mayor que la unidad, cumpliendose ası el Teorema 5.1.

0.0 0.1 0.2 0.3 0.4 0.5

01

23

4

frecuencia

dens

idad

esp

ectr

al d

e po

tenc

ia d

e X

Figura 5.1: Densidad espectral de potencia del proceso ARMA(2,2) con σ2 = 1

El cuadrado del modulo de la funcion de transferencia vale,

|h(ω)|2 =|θ(e−i2πω)|2|φ(e−i2πω)|2 =

1,65− 1,44 cos 2πω − 0,2 cos 4πω

2,60− 3,36 cos 2πω − 0,8 cos 4πω.

Page 53: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

5.2 Vibraciones aleatorias 47

La PSD valdra por tanto,

PX(ω) = σ2 1,65− 1,44 cos 2πω − 0,2 cos 4πω

2,60− 3,36 cos 2πω − 0,8 cos 4πω. (5.15)

La grafica de este proceso, para σ2 = 1, se muestra en la Figura 5.1

5.2. Vibraciones aleatorias

Durante los aterrizajes y despegues de los reactores se producen vibraciones de tal nivel,que cualquier pasajero puede percibirlas. Estas vibraciones son debidas a la interaccion de lascorrientes de aire con la estructura metalica del aparato, que producen cambios de presionque se traducen en las vibraciones mencionadas, conocidas como turbulencias de la capa lımite(TBL del ingles Turbulence Boundary Layer). Se trata de un fenomeno que puede ser descritomediante un proceso estocastico y cuya modelizacion es de gran interes para poder simularloen el laboratorio.

Los fabricantes de componentes para la aviacion han de tener en cuenta el fenomeno y susposibles efectos negativos sobre sus productos. Para ello los someten a un test de vibracionesaleatorias que reproduzcan, lo mas fielmente posibles, las condiciones reales de vuelo. Con estefin se monta el componente, por ejemplo una antena exterior, sobre una mesa a la que se hacevibrar para que transmita sus vibraciones. El problema es como conseguir simular la realidad.Veamos una posible solucion que utiliza un proceso estocastico generado mediante un ordenador.

La PSD del proceso estocastico que describe estas turbulencias ha sido determinada median-te estudios de laboratorio para el caso de los transportadores espaciales que utiliza la NASA.Su expresion es

PXt(ω) =

P (500), 0 ≤ ω ≤ 500 Hz;

9× 1014r2

ω + 11364, 500 < ω ≤ 50000 Hz,

(5.16)

donde r2 es una constante de referencia cuyo valor es 20µPa, siendo µPa una unidad de presionigual a 10−6nw/m2. La grafica de P (ω) se muestra a la izquierda de la Figura 5.2 para un valornormalizado de r = 1. Se observa su semejanza con un filtro de pasa bajo.

La senal que hemos de enviar a la tabla para que se agite y haga vibrar el componenteadosado como deseamos, se ha de generar en un ordenador y mediante un convertidor digitalanalogico se convertira en una senal continua. Hemos de encontrar un proceso WSS discretocuya PSD se ajuste a la PSD teorica de la Figura 5.2. Recordemos, para ello, cuanto se dice enlas paginas 121 y 122 de Montes (2007) respecto a la relacion entre la RXt(τ) de un procesocontinuo en el tiempo y la RXn(k) del proceso obtenido mediante muestro del anterior. Enconcreto, RXn(k) = RXt(kT ), donde T es la frecuencia de muestreo.

A partir de (5.16) obtendremos la PSD muestreada tomando T = 1/(2ω0) = 1/100000puesto que la maxima frecuencia era ω0 = 50000 Hz. La grafica correspondiente a PXn(ω)es la de la derecha en la Figura 5.2, cuyos valores estan multiplicados por 1/2 porque hemosrepresentado la gama completa de frecuencias, |ω| ≤ 0,5, y tambien por un factor 1/T = 100000que se introducer al muestrear.

Un modelo sencillo y con una PSD similar a la de la Figura 5.2 (izquierda) es el procesoAR(1),

Xt = αXt−1 + Zt, (5.17)

con α > 0 (vease el Ejemplo 5.2 de Montes (2007)). Determinaremos α y σ2 del ruido blanco,Zt, para que sean compatibles con la PSD que conocemos, y una vez conocidos podemos generar

Page 54: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

48 Transformacion lineal de un proceso estacionario

frecuencia

PX

t(w)

01

23

45

67

8x10

10

0 1 2 3 4 5x104

frecuencia

PX

n(w)

12

34

56

78x

1015

−0.2 0 0.2 0.4

Figura 5.2: Densidad espectral de potencia de la vibracion aleatoria (TBL) teorica (izquierda)y muestreada (derecha)

una realizacion discreta del proceso a partir de la ecuacion en diferencias

Xn = αXn−1 + Zn. (5.18)

Elevando al cuadrado ambos miembros de (5.18) y tomando esperanzas se obtiene la relacion,

σ2 = RXn(0)(1− α2),

y si multiplicamos ahora ambos miembros por Xn y tomamos esperanzas obtendremos,

a =RXn(1)RXt(0)

.

Los valores de RXn(0) y RXn(1) pueden calcularse a partir de las integrales,

RXn(0) =∫ +1/2

−1/2

PXn(ω)dω

RXn(1) =∫ +1/2

−1/2

PXn(ω) cos 2πωdω,

que pueden evaluarse de numericamente. Una aproximacion mediante sumas de rectangulos daRXn(0) = 1,5169× 1015 y RXn(1) = 4,8483× 1014, lo que conduce a

α = 0,3196 y σ2 = 1,362× 1015.

En la Figura 5.3 se comprueba que el modelo AR(1) tiene una PSD que se ajusta bien a laoriginal, excepto en los valores alrededor de 0. Podemos utilizar para generar una senal continuaque simulara muy aproximadamente la vibracion real sobre la mesa de pruebas.

Page 55: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

5.2 Vibraciones aleatorias 49

frecuencia

PS

D

12

34x

1015

−0.4 −0.2 0 0.2 0.4

Figura 5.3: Densidad espectral de potencia del proceso real (- - -) y del AR(1) ajustado (-----)

Page 56: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

50 Transformacion lineal de un proceso estacionario

Page 57: Procesos Estoc¶asticos para Ingenieros: Teor¶‡a y … Probabilidad. Variable aleatoria. Vector aleatorio (podemos valernos de la f ormula de Stirling, n! … p 2…nn+1 2 e¡n,

Bibliografıa

Diggle, P. (1990). Time Series. A Biostatistical Introduction. Oxford University Press, N.Y.

Montes, F. (2007). Procesos Estocasticos para Ingenieros: Teorıa y Aplicaciones. Dpt.d’Estadıstica i I. O. Universitat de Valencia.