Cadenas de Markov2

18
CADENAS DE MARKOV Una cadena de Markov, que recibe su nombre del matemático ruso Andrei Markov, es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro. Una cadena de Markov es una secuencia X1, X2, X3,… de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces: Donde xi es el estado del proceso en el instante i. La identidad mostrada es la Propiedad de Markov. Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto

Transcript of Cadenas de Markov2

Page 1: Cadenas de Markov2

CADENAS DE MARKOV

Una cadena de Markov, que recibe su nombre del matemático ruso Andrei

Markov, es una serie de eventos, en la cual la probabilidad de que ocurra un

evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo

tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades

de los eventos futuros. Esta dependencia del evento anterior distingue a las

cadenas de Markov de las series de eventos independientes, como tirar una

moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los

patrones de compra de los deudores morosos, para planear las necesidades de

personal y para analizar el reemplazo de equipo.

En matemáticas, se define como un proceso estocástico discreto que cumple con

la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su

instante actual, su estado presente resume toda la información relevante para

describir en probabilidad su estado futuro.

Una cadena de Markov es una secuencia X1, X2, X3,… de variables aleatorias. El

rango de estas variables, es llamado espacio estado, el valor de Xn es el estado

del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1

en estados pasados es una función de Xn por sí sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la

Propiedad de Markov.

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que

ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas

de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las

posibilidades de los eventos futuros. Esta dependencia del evento anterior

distingue a las cadenas de Markov de las series de eventos independientes, como

tirar una moneda al aire o un dado.

El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo

el método en 1907, permite encontrar la probabilidad de que un sistema se

encuentre en un estado en particular en un momento dado. Algo más importante

aún, es que permite encontrar el promedio a la larga o las probabilidades de

Page 2: Cadenas de Markov2

estado estable para cada estado. Con esta información se puede predecir el

comportamiento del sistema a través del tiempo.

La tarea más difícil es reconocer cuándo puede aplicarse. La característica más

importante que hay que buscar en la memoria de un evento a otro.

Formulación de las cadenas de Markov.

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que

ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas

de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las

posibilidades de los eventos futuros. Esta dependencia del evento anterior

distingue a las cadenas de Markov de las series de eventos independientes, como

tirar una moneda al aire o un dado.

Probabilidades de transición.

Una forma de describir una cadena de Markov es con un diagrama de estados. En

ésta se ilustra un sistema de Markov con cuatro estados posibles: M1, M2, M3 y

M4. La probabilidad condicional o de transición de moverse de un estado a otro se

indica en el diagrama

Otro método para exhibir las probabilidades de transición es usar una matriz de

transición.

Otro método para exhibir las probabilidades de transición es usar una matriz de

transición. .

Para n = 0, 1, 2,….

El superíndice n no se escribe cuando n = 1.

Procesos estocásticos.

Un proceso estocástico se define sencillamente como una colección indexada de

variables aleatorias {X1}, donde el subíndice t toma valores de un conjunto T dado.

Con frecuencia T se toma como el conjunto de enteros no negativos y X,

representa una característica de interés medible en el tiempo t. Por ejemplo, el

proceso estocástico, X1, X2, X3,.., Puede representar la colección de niveles de

Page 3: Cadenas de Markov2

inventario semanales (o mensuales) de un producto dado, o puede representar la

colección de demandas semanales (o mensuales) de este producto.

Un estudio del comportamiento de un sistema de operación durante algún periodo

suele llevar al análisis de un proceso estocástico con la siguiente estructura. En

puntos específicos del tiempo t , el sistema se encuentra exactamente en una de

un número finito de estados mutuamente excluyentes y exhaustivos, etiquetados

0, 1 . . , S. Los periodos en el tiempo pueden encontrarse a intervalos iguales o su

esparcimiento puede depender del comportamiento general del sistema en el que

se encuentra sumergido el proceso estocástico. Aunque los estados pueden

constituir una caracterización tanto cualitativa como cuantitativa del sistema, no

hay pérdida de generalidad con las etiquetas numéricas 0, 1. . , M, que se usarán

en adelante para denotar los estados posibles del sistema. Así la representación

matemática del sistema físico es la de un proceso estocástico {Xi}, en donde las

variables aleatorias se observan en t = 0, 1, 2,. . ., y en donde cada variable

aleatoria puede tomar el valor de cualquiera de los M + 1 enteros 0, 1,.. , M. Estos

enteros son una caracterización de los M + 1 estados del proceso.

Propiedad Markoviana de 1o. orden.

Se dice que un proceso estocástico tiene la propiedad Markoviana si

P Xt+1 = j = P X t+1 , para toda t = 0, 1 . Y toda

Sucesión i, j , K0 , K1 . . , Ki-1.

Se puede demostrar que esta propiedad Markoviana es equivalente a establecer

una probabilidad condicional de cualquier “evento” futuro dados cualquier “evento

“pasado y el estado actual Xi = i, es independiente del evento pasado y sólo

depende del estado actual del proceso. Las probabilidades condicionales PXt+1 =

j se llaman probabilidades de transición. Si para cada i y j,

P Xt+1 = j = pX1 = j, para toda t = 0, 1,….

Entonces se dice que las probabilidades de transición (de un paso) son

estacionarias y por lo general se denotan por pij. Así, tener probabilidades de

transición estacionarias implica que las probabilidades de transición no cambian

con el tiempo. La existencia de probabilidades de transición (de un paso)

estacionarias también implica que, para cada i, j y n (n = 0, 1, 2,…),

Page 4: Cadenas de Markov2

P Xt+n = j = pXn = j,

Para toda t = 0, 1,. . . Estas probabilidades condicionales casi siempre se denotan

por y se llaman probabilidades de transición de n pasos. Así, es simplemente la

probabilidad condicional de que la variable aleatoria X, comenzando en el estado i,

se encuentre en el estado j después de n pasos (unidades de tiempo).

Como las son probabilidades condicionales, deben satisfacer las propiedades:

Probabilidad de transición de un solo paso.

Ejemplo:

Una tienda de cámaras tiene en almacén un modelo especial de cámara que se

puede ordenar cada semana. Sean D1, D2,… las demandas de esta cámara

durante la primera, segunda,…, semana, respectivamente. Se supone que las Di

son variables aleatorias independientes e idénticamente distribuidas que tienen

una distribución de probabilidad conocida. Sea X0 el número de cámaras que se

tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen

al final de la semana uno, X2 el número de cámaras al final de la semana dos, etc.

Suponga que X0 = 3 . El sábado en la noche la tienda hace un pedido que le

entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que

le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente

política ( s, S)1 para ordenar : si el número de cámaras en inventario al final de la

semana es menor que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3.

De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el

almacén, no se hace el pedido). Se supone que las ventas se pierden cuando la

demanda excede el inventario. Entonces, {X1} para t = 0, 1,.. Es un proceso

estocástico de la forma que se acaba de describir. Los estados posibles del

proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras

en inventario al final de la semana.

Observe que {Xi}, en donde Xi es el número de cámaras en el almacén al final de

la semana t ( antes de recibir el pedido}), es una cadena de Markov. Se verá ahora

cómo obtener las probabilidades de transición (de un paso), es decir, los

elementos de la matriz de transición (de un paso).

Suponiendo que cada Dt tiene una distribución Poisson con parámetro.

Page 5: Cadenas de Markov2

Para obtener es necesario evaluar. Si, Entonces. Por lo tanto, significa que la

demanda durante la semana fue de tres o más cámaras. Así, la probabilidad de

que una variable aleatoria Poisson con parámetro tome el valor de 3 o más; y se

puede obtener de una manera parecida. Si, entonces. Para obtener, la demanda

durante la semana debe ser 1 o más. Por esto, Para encontrar, observe que si .

En consecuencia, si, entonces la demanda durante la semana tiene que ser

exactamente 1. Por ende, Los elementos restantes se obtienen en forma similar, lo

que lleva a la siguiente a la siguiente matriz de transición (de un paso):

Probabilidad de transición estacionaria de n pasos.

Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular

estas probabilidades de transición de n pasos:

Estas ecuaciones simplemente señalan que al ir de un estado i al estado j en n

pasos, el proceso estará en algún estado k después de exactamente m (menor

que n) pasos. Así,

Es solo las probabilidad condicional de que, si se comienza en el estado i, el

proceso vaya al estado k después de m pasos y después al estado j en n- m

pasos.

Los casos especiales de m=1 y m=n-1 conducen a las expresiones

Para toda i, j, y n de lo cual resulta que las probabilidades de transición de n pasos

se pueden obtener a partir de las probabilidades de transición de un paso de

manera recursiva. Para n=2, estas expresiones se vuelven:

Note que las son los elementos de la matriz P (2), pero también debe de

observarse que estos elementos, se obtienen multiplicando la matriz de transición

de un paso por sí misma; esto es, P (2) = P * P = P2.

En términos más generales, se concluye que la matriz de probabilidades de

transición de n pasos se puede obtener de la expresión: P(n) = P * P…. P = Pn =

PPn−1 = Pn-1 P.

Entonces, la matriz de probabilidades de transición de n pasos se puede obtener

calculando la n-ésima potencia de la matriz de transición de un paso. Para valores

no muy grandes de n, la matriz de transición de n pasos se puede calcular en la

Page 6: Cadenas de Markov2

forma que se acaba de describir, pero cuando n es grande, tales cálculos resultan

tediosos y, más aún, los errores de redondeo pueden causar inexactitudes.

Ejemplo:

Una tienda de cámaras tiene en almacén un modelo especial de cámara que se

puede ordenar cada semana. Sean D1, D2,… las demandas de esta cámara

durante la primera, segunda,…, semana, respectivamente. Se supone que las Di

son variables aleatorias independientes e idénticamente distribuidas que tienen

una distribución de probabilidad conocida. Sea X0 el número de cámaras que se

tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen

al final de la semana uno, X2 el número de cámaras al final de la semana dos, etc.

Suponga que X0 = 3. El sábado en la noche la tienda hace un pedido que le

entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que

le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente

política (s, S)1 para ordenar: si el número de cámaras en inventario al final de la

semana es menor que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3.

De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el

almacén, no se hace el pedido). Se supone que las ventas se pierden cuando la

demanda excede el inventario. Entonces, {X1} para t = 0, 1,.. Es un proceso

estocástico de la forma que se acaba de describir. Los estados posibles del

proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras

en inventario al final de la semana.

Así, dado que tiene una cámara al final de una semana, la probabilidad de que no

haya cámaras en inventario dos semanas después es 0.283; es decir, De igual

manera, dado que se tienen dos cámaras al final de una semana, la probabilidad

de que haya tres cámaras en el almacén dos semanas después es 0.097; esto es,

La matriz de transición de cuatro pasos también se puede obtener de la siguiente

manera:

P (4) = P4 = P (2) * P (2)

Así, dado que queda una cámara al final de una semana, 0.282 es la probabilidad

de que no haya cámaras en inventario 4 semanas más tarde; es decir, De igual

manera, dado que quedan dos cámaras en el almacén final de una semana, se

tiene una probabilidad de 0.171 de que haya tres cámaras en el almacén 4

semanas después; esto es,

Page 7: Cadenas de Markov2

Probabilidades de transición estacionaria de estados estables.

Teorema

Sea P la matriz de transición de una cadena de M estados. Existe entonces un

vector tal que

Se establece que para cualquier estado inicial i.

El vector a menudo se llama distribución de estado estable, o también distribución

de equilibrio para la cadena de Markov. Para encontrar la distribución de

probabilidades de estacionario para una cadena dada cuya matriz de transición es

P, según el teorema, para n grande y para toda i, (1)

Como Pij (n + 1) = (renglón i de Pn) (columna j de P), podemos escribir

(2)

Ejemplo:

Suponga que toda la industria de refrescos produce dos colas. Cuando una

persona ha comprado la cola 1, hay una probabilidad de 90 % de que su siguiente

compra se de cola 1. Si una persona compró cola 2, hay un 80 % de

probabilidades que su próxima compra sea de cola 2.

Entonces:

Al reemplazar la segunda ecuación por la condición,

Obtenemos el sistema

Al despejar resulta que Por lo tanto, después de largo tiempo, hay probabilidad 2/3

de que una persona dada compre cola 1 y 1/3 de probabilidad de que una persona

compre cola 2.

Tiempos de primer paso.

Con frecuencia es conveniente poder hacer afirmaciones en términos de

probabilidades sobre el número de transiciones que hace el proceso al ir de un

Page 8: Cadenas de Markov2

estado i a un estado j por primera vez. Este lapso se llama tiempos de primer paso

al ir del estado i al estado j. cuando J=i, esta tiempo de primer paso es justo el

número de transiciones hasta que el proceso regresa al estado inicial i. En este

caso, el tiempo de primer paso se llama tiempo de recurrencia para el estado i.

Para ilustrar estas definiciones, reconsidérese el ejemplo siguiente:

Una tienda de cámaras tiene en almacén un modelo especial de cámara que se

puede ordenar cada semana. Sean D1, D2, … las demandas de esta cámara

durante la primera, segunda, … , semana, respectivamente. Se supone que las Di

son variables aleatorias independientes e idénticamente distribuidas que tienen

una distribución de probabilidad conocida. Sea X0 el número de cámaras que se

tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen

al final de la semana uno, X2 el número de cámaras al final de la semana dos, etc.

Suponga que X0 = 3. El sábado en la noche la tienda hace un pedido que le

entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que

le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente

política ( s, S)1 para ordenar : si el número de cámaras en inventario al final de la

semana es menor que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3.

De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el

almacén, no se hace el pedido). Se supone que las ventas se pierden cuando la

demanda excede el inventario. Entonces, {X1} para t = 0, 1,.. Es un proceso

estocástico de la forma que se acaba de describir. Los estados posibles del

proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras

en inventario al final de la semana.

Donde Xt es el número de cámaras en inventario al final de la semana t y se

comienza con, Suponga que ocurrió lo siguiente:

En este caso, el tiempo de primer paso para ir al estado 3 al estado 1 es de 2

semanas, el tiempo de primer paso para ir del estado 3 al estado 0 es de 3

semanas y el tiempo de recurrencia del estado 3 es de 4 semanas.

En general, los tiempos de primer paso son variables aleatorias y, por lo tanto,

tienen una distribución de probabilidad asociada a ellos. Estas distribuciones de

probabilidad dependen de las probabilidades de transición del proceso. En

particular, denota la probabilidad de que el tiempo de primer paso del estado i al j

Page 9: Cadenas de Markov2

sea igual a n. Se puede demostrar que estas probabilidades satisfacen las

siguientes relaciones recursivas:

Entonces se puede calcular la probabilidad de un tiempo de primer paso del

estado i al j en n pasos, de manera recursiva, a partir de las probabilidades de

transición de un paso. En el ejemplo, la distribución de probabilidad de los tiempos

de primer paso del estado 3 al estado 0 se obtiene como sigue:

Para i y j fijos, las son números no negativos tales que

Esta suma puede ser menor que 1, lo que significa que un proceso que el iniciar

se encuentra en el estado i puede no llegar nunca al estado j. Cuando la suma es

igual a 1, las pueden considerarse como una distribución de probabilidad para la

variable aleatoria, el tiempo de primer paso.

Para obtener el tiempo esperado de primer paso del estado i al estado j. Sea, que

se define como:

Entonces satisface, de manera única, la ecuación:

Cuando i=j, se llama tiempo esperado de recurrencia.

Al aplicarlo al ejemplo del inventario, estas ecuaciones se pueden usar para

calcular el tiempo esperado hasta que ya no se tengan cámaras en el almacén,

suponiendo que el proceso inicia cuando se tienen tres cámaras; es decir, se

puede obtener el tiempo esperado de primer paso . Como todos los estados son

recurrentes, el sistema de ecuaciones conduce a las expresiones

La solución simultánea de este sistema es

De manera que el tiempo esperado hasta que la tienda se queda sin cámaras es

de 3.50 semanas.

Caso de Aplicación.

Aplicación a la administración: Planeación de Personal.

El análisis de transición puede ser útil al planear satisfacer las necesidades de

personal. Muchas firmas emplean trabajadores de diferentes niveles de

Page 10: Cadenas de Markov2

clasificación dentro de la misma categoría de trabajo. Esto es común para

personal de confianza, oficinistas, obreros calificados, no calificados y personal

profesional. La firma debe tener el número de empleados en cada nivel de

clasificación para proporcionar la oportunidad de promoción adecuada, cumplir

con las habilidades necesarias para el trabajo y controlar la nómina. Una

planeación de personal a largo plazo apropiada requiere que se considere el

movimiento de personas tanto hacia arriba en el escalafón de clasificación como

hacia afuera de la organización. El análisis de Markov puede ayudar en este

esfuerzo de planeación.

El movimiento de personal a otras clasificaciones puede considerarse como una

cadena de Markov. Se supone que hay tres clasificaciones; el grado 1 es la más

baja. Además, los descensos se consideran raros y se omiten. El estado “salen”

es absorbente, el cual incluye renuncias, ceses, despidos y muertes. Por

supuesto, todos los empleados finalmente alcanzan este estado.

Las transiciones del grado 1 al grado 2 y del grado 2 al grado 3 representan

promociones. Como transiciones de probabilidad, están controladas por la firma,

puede establecerse el nivel que la firma determine que es necesario para cumplir

sus objetivos. Como ejemplo, supóngase que la firma tiene en este momento 30

empleados del 3, 90 empleados del grado 2 y 300 empleados del grado 1 y que

desea mantener este nivel de empleados durante el próximo año. Por experiencia,

se espera que salgan el 30 % de los empleados de grado 1 al año, el 20 % de los

empleados de grado 2 y el 10 % de aquellos que están en el grado 3. Si la política

es contratar sólo en los niveles de clasificación más bajos, cuántos se deben

contratar y cuántos se deben promover el siguiente año para mantener estables

los niveles ?.

Este problema puede resolverse sin el análisis de Markov, pero el modelo es útil

para ayudar a conceptualizar el problema. Como se trata sólo de un ciclo, se usa

el análisis de transición. El análisis comienza con el grado más alto. No se hacen

promociones pero el 10 %, o sea, 3, sale. Todos ellos deben de reemplazarse por

promociones del grado 2. En el nivel de clasificación, el 20 % sale y se deben

promover 3, con una pérdida de 21. Esto se debe compensar por promoción del

grado 1. Al pasar al grado 1, el 30 % sale y 21 deben promoverse, lo cual una

pérdida total de 111. Por tanto, el siguiente año se deben contratar 111 empleados

del nivel 1.

Page 11: Cadenas de Markov2

En este ejemplo se derivan algunas tasas de transición a partir de consideraciones

externas.

EJERCICIOS TIPO EXAMEN2012 - 1

Un estudio reciente realizado en nuestra la ciudad muestra que el 2% de los habitantes que viven en el área metropolitana se mudan a los suburbios en un período de un año, en tanto que el 1% de los que viven en los suburbios se mudan al área metropolitana en el mismo período. Suponga que esta situación queda modelada como un proceso de Markov con dos estados: Ciudad (los que viven en el área metropolitana) y Suburbios.

a. Siguiendo los pasos requeridos escriba la matriz de probabilidades de transiciónb. Calcule las probabilidades de estado establec. En un área metropolitana específica, 40% de la población vive en la ciudad y 60% vive

en los suburbios. ¿Qué cambios en la población resultan de las probabilidades de estado estable para esta área metropolitana?

……………………………………………………………………………………………………………… Un cazador le dispara a un pato independientemente de cuantos patos vuelen juntos; la probabilidad de acertar (es decir disparar y cazar un pato) es de 0.2. La cacería termina cuando el cazador haya cazado 2 patos. Suponga que esta situación queda modelada como un proceso de Markov.

a. Siguiendo los pasos requeridos escriba la matriz de probabilidades de transiciónb. Cuántos disparos debe hacer el cazador antes de lograr el límite, si tiene cero patos y

cuándo tenga un pato. ……………………………………………………………………………………………………………… Un estudio demuestra que el número de clientes que están en el momento ocupando la estación afecta la probabilidad de una nueva llegada, ver tabla anexa. Si se supone que la probabilidad de servicio es 0.5 formular esta situación como una cadena de Markov, describiendo una a una las probabilidades de la matriz de transición, de lo contrario la cadena no tiene valor.

Número de clientes en la estación

Probabilidad de una nueva llegada

0 0.41 0.42 0.13 0.1

……………………………………………………………………………………………………………….En una oficina de representaciones hay tres agentes viajeros para visitar a los clientes. Las correrías empiezan los lunes pero antes deben sostener una reunión conjunta. Sólo pueden salir de viaje dos de los agentes pues siempre debe permanecer uno en la oficina. Cuando un agente sale de correría puede demorarse en ella exactamente una o dos semanas con probabilidad 2/3 y 1/3 respectivamente. Al iniciar una correría siempre salen los dos agentes disponibles. Escriba la matriz de transición correspondiente a la situación planteada.………………………………………………………………………………………………………………Un taxi puede estar en buen estado (1) o en reparación (0). En el 95% de los casos el taxi permanece en buen estado de un día a otro y cuando está en reparación en el 30% de las veces no se logra reparar en un día. Cuando el taxi está funcionado los gastos de operación diario son de $1500 y cuando está en reparación los costos son de $2000 por día.

Page 12: Cadenas de Markov2

a. Siguiendo todos los pasos requeridos, elabore la matriz correspondiente.b. Halle los costos directos esperados por día. c. Cuánto debería ganar el taxista durante un día para que su sueldo sea al menos el

doble del salario mínimo. [Ayuda: considere el salario mínimo como $450000]……………………………………………………………………………………………………………….Hace mucho tiempo en una galaxia lejana existió un planeta en el que el clima de cualquier día dependía sólo del clima del día anterior. Por ejemplo, la probabilidad de que lloviera hoy dependería sólo de lo sucedido ayer. Existen sólo tres tipos de clima en ese planeta: despejado, lluvia y nieve. Enseguida se presenta la matriz de transición diaria para estos tipos de clima:

Despejado Lluvia NieveDespejado

0.5 0. 0.2

Lluvia 0.4 0.4 0.2nieve 0.3 0.3 0.4

a. Calcule las probabilidades de estado para pasado mañana siendo que hoy llovió.

b. Cuál es la probabilidad de que siga lloviendo un mes despuésc. Cuáles son las probabilidades de equilibrio para cada tipo de clima

………………………………………………………………………………………………………………Suponga que el estado del tiempo un día cualquiera depende de las condiciones del tiempo de los dos días anteriores. Esto es, si ayer llovió y hoy también, la probabilidad de que mañana llueva es 0.7. Si hoy llovió, pero no ayer, mañana lloverá con probabilidad 0.5. Si hoy no llovió, pero ayer si, mañana lloverá con probabilidad 0.4. Si en los últimos días no ha llovido, lloverá mañana con probabilidad 0.2.

a. Siguiendo todos los pasos requeridos a la elaboración de la cadena correspondiente, elabore la matriz de transición correspondiente.

b. Si el lunes y el martes de esta semana llovió, cuál es la probabilidad de que llueva el jueves

c. Cuál es la probabilidad de que llueva en los próximos cuatro días, si hoy está lloviendo

………………………………………………………………………………………………………………Se tiene un proceso de producción donde cada artículo debe pasar por dos etapas. Al final de cada etapa los artículos se desechan con probabilidad 0.05 o regresan para rehacerlos con probabilidad 0.1 o pasan a la etapa siguiente. El tiempo de operación en cada etapa es de 1 hora-hombre y 2 horas-hombre respectivamente con un costo promedio de $144/hora; los artículos desechados cuestan $1 cada uno.

a. Siguiendo todos los pasos requeridos a la elaboración de la cadena, elabore la matriz de transición correspondiente

b. Halle el número esperado de pasos para que el producto sea terminado; y para que el producto sea desechado.

c. Halle el porcentaje de piezas buenas que terminand. Luego de pasar la etapa 1,¿cuál es el porcentaje de piezas terminadas?e. Halle el costo esperado de producción de cada artículo

Page 13: Cadenas de Markov2

f. Halle el costo esperado de producción de cada artículo bueno……………………………………………………………………………………………………………..Un consorcio ha ganado una licitación para construir una carretera en cierta zona volcánica del país. El constructor sabe que el polvo volcánico obstruirá los filtros de las máquinas de las máquinas con mucha rapidez y provocará que los camiones dejen de funcionar. Los filtros se revisan todos los días y se clasifican como recién limpiados, parcialmente obstruidos o totalmente obstruidos. Experiencias anteriores han mostrado que un filtro que se acaba de limpiar tiene una probabilidad de 0.1 de permanecer limpio y una probabilidad de 0.8 de quedar parcialmente obstruido. Un filtro que ya está parcialmente obstruido tiene igual probabilidad de quedar parcialmente o totalmente obstruido. Para poder utilizar un camión que tiene un filtro totalmente obstruido éste se debe limpiar primero.

a. Siguiendo todos los pasos requeridos a la elaboración de la cadena correspondiente, elabore la matriz de transición correspondiente.

b. Si un camión deja de operar, esto le cuesta a la compañía $100 por el tiempo perdido de trabajo y $20 para poder limpiar el filtro. ¿Cuánto le costará a la compañía seguir una política de no limpiar los filtros sino hasta que se detengan los camiones?

……………………………………………………………………………………………………………….Suponga las elecciones que se efectúan en cierto país cada dos años. Se ha observado en el estado de Cumarca que un electorado que es liberal (vota liberal) puede votar por los conservadores en una elección si y sólo si en la elección anterior se abstuvo de votar (mayoría silenciosa); igual cosa sucede con los conservadores. Suponga S1 si el elector vota liberal, S2 si vota conservador y S3 si se abstiene. La experiencia en Cumarca muestra que un liberal se abstendrá la mitad del tiempo en las próximas elecciones, un conservador se abstendrá la cuarta parte del tiempo y un abstencionista de las elecciones pasadas tiene probabilidad de votar igual por cualquier partido en las próximas elecciones.

a. Siguiendo todos los pasos requeridos a la elaboración de la cadena correspondiente, elabore la matriz de transición correspondiente.

b. Encuentre la probabilidad de que una persona que vota liberal ahora, se abstenga dentro de 2 elecciones.

c. En una elección dada, la mitad de la población vota liberal, la cuarta parte conservador y el resto se abstiene. ¿Qué proporciones se pueden esperar en las próximas elecciones?

…………………………………………………………………………………………………………..

Una fábrica tiene dos máquinas y una cuadrilla de reparación. Suponga que la probabilidad de que una máquina se dañe un día cualquiera es “alfa”. Suponga, además, que si la cuadrilla de reparación está trabajando en una de las máquinas, la probabilidad que la repare en un día es “beta”. Sea Xn el número de máquinas en operación al final del n-ésimo día. Asuma que el comportamiento de {Xn} puede modelarse como una cadena de Markov. Escriba la matriz de transición correspondiente a la situación planteada.

Este problema es un reto:

Page 14: Cadenas de Markov2

“Aplicando la teoría de Cadenas de Markov encuentre la probabilidad de que D esté diciendo la verdad en el siguiente problema: A, B, C y D dicen la verdad cada uno de ellos con una probabilidad de 1/3 (independientemente), y A afirma que B niega que C declara que D es un embustero” Adaptado de Parzen 1968

……………………………………………………………………………………………………………….

En una investigación de mercados se comprobó que el 90% de las personas que compraban la marca X de cierto producto volvían a comprar la misma marca en la próxima semana, mientras que el 20% de los que no la habían comprado lo hacían en la próxima oportunidad.

a. Siguiendo los pasos requeridos describa esta situación como una cadena de Markov

b. ¿Cuál será el porcentaje de consumidores de la marca X un mes después, si inicialmente la probabilidad de adquirir la marca Y era de 0.3?

c. ¿Cuál es el vector de estado estable? Interpretarlo………………………………………………………………………………………………………………En un determinado proceso de producción, cada artículo pasa por dos etapas de fabricación. Al final de cada etapa los artículos se inspeccionan y se desechan totalmente con probabilidad 0.3; se desechan parcialmente para regresarlos y rehacerlos con probabilidad 0.2 o pasan a la etapa siguiente con probabilidad 0.5. Realizando todo el proceso de formulación de una resolver esta situación C.M,

………………………………………………………………………………………………………………Tres niños A, B y C juegan con una pelota de la siguiente manera: si A tiene la pelota, siempre se la pasa a B y B siempre se la pasa a C, pero este se la pasa a A o B con igual probabilidad. Encontrar:

a. Siguiendo los pasos requeridos defina el proceso de Markov correspondiente.b. Qué pasara tres lanzamientos después, sabiendo que inicialmente C tiene la

pelota.c. Las probabilidades límites.

………………………………………………………………………………………………………………Una maquina puede estar en buen estado (1) o en reparación (0). En el 85% de los casos la máquina permanece en buen estado de un día a otro y cuando está en reparación en el 20% de las veces no se logra reparar en un día. Cuando la máquina está funcionado los gastos de operación diario son de $2500 y cuando está en reparación los costos son de $1000 por día.

a. Siguiendo todos los pasos requeridos, elabore la matriz correspondiente.b. Halle los costos directos esperados por día.

c. Cuánto utilidad debería proporcionar la máquina durante un día para que la ganancia mensual sea al menos el triple del salario mínimo. [Ayuda: considere el salario mínimo como $450.000]