Cadenas Markov

51
 Cadenas Markov  Índice 1. Introducción 2. Cadenas de Markov  3. Ecuaciones de Chapman-Kolmogorov  4. Clasificación de los estados en una cadena de Markov  5. Tiempos de primera pasada  6. Estados Absorbentes 7. Cadenas de Markov en tiempo continuo  8. Algunas v. a. importantes 9. Probabilidades de estado estable 10. Ejemplos explicativos Introducción  Las cadenas de Markov se incluyen dentro de los denominados  procesos estocásticos. Dichos estudian el comportamiento de variables aleatorias a lo largo del t iempo X(t,w). Se definen como una colección de variables aleatorias {X(t,w), t  I}, donde X (t,w) puede representar por ejemplo los niveles de inventario al final de la semana t. El interés de los  procesos estocásticos es describir el comportamiento de un sistema e operación durante algunos periodos.  Los procesos estocásticos se pueden clasificar atendiendo a dos aspectos: si el espacio de estados posibles de la variable aleatoria contiene valores discretos o continuos y de si los valores del tiempo son discretos o continuos.   Las cadenas de Markov es un proceso estocástico en el que los valores del tiempo son discretos y los estados posibles de la variable aleatoria contiene valores discretos, es decir, es una cadena estocástica de tiempo discreto.  Las cadenas de Markov, se clasifican, además, dentro de los procesos estocásticos de Markov, que son aquellos en el que el estado futuro de un  proceso es independiente de los estados pasados y solamente depende del estado presente. Por lo tanto las probabilidades de transición entre los estados para los tiempos k-1 y k solamente depende de los estados que la variable adquiere dichos tiempos.

Transcript of Cadenas Markov

Page 1: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 1/51

 

Cadenas Markov 

Índice 1.  Introducción 

2.  Cadenas de Markov 

3.  Ecuaciones de Chapman-Kolmogorov 

4.  Clasificación de los estados en una cadena de Markov 

5.  Tiempos de primera pasada 

6.  Estados Absorbentes 7.  Cadenas de Markov en tiempo continuo 

8.  Algunas v. a. importantes 

9.  Probabilidades de estado estable 

10. Ejemplos explicativos 

Introducción 

 Las cadenas de Markov se incluyen dentro de los denominados procesos estocásticos. Dichos estudian el comportamiento de variablesaleatorias a lo largo del tiempo X(t,w). Se definen como una colección devariables aleatorias {X(t,w), t  I}, donde X (t,w) puede representar por ejemplo los niveles de inventario al final de la semana t. El interés de los

 procesos estocásticos es describir el comportamiento de un sistema eoperación durante algunos periodos.

 Los procesos estocásticos se pueden clasificar atendiendo a dosaspectos: si el espacio de estados posibles de la variable aleatoria contienevalores discretos o continuos y de si los valores del tiempo son discretos o

continuos.  Las cadenas de Markov es un proceso estocástico en el que los

valores del tiempo son discretos y los estados posibles de la variablealeatoria contiene valores discretos, es decir, es una cadena estocástica detiempo discreto. 

 Las cadenas de Markov, se clasifican, además, dentro de los procesosestocásticos de Markov, que son aquellos en el que el estado futuro de un

 proceso es independiente de los estados pasados y solamente depende del estado presente. Por lo tanto las probabilidades de transición entre los

estados para los tiempos k-1 y k solamente depende de los estados que lavariable adquiere dichos tiempos.

Page 2: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 2/51

INDICE   

Cadenas de Markov 

 Las cadenas de Markov están constituidas por un conjunto de valores{X n , n :0,1,2...} que cumplen la probabilidad de alcanzar cualquier estado j de la variable depende exclusivamente del estado i alcanzado en el instante de tiempo anterior.

P[Xn+1= j / Xn = i, Xn-1 = i1,..., X0=in]=P[Xn+1=j / Xn=i] i,j Se define para cada par de estados (i, j) que se alcanzan en dos pasos

consecutivos de n y n+1 una probabilidad condicional denominada probabilidad de transición pij.

P[X+1=j / Xn=i] = pij  Las probabilidades de transición de un paso son estacionarias, es

decir, que no cambian con el tiempo.Si pij no depende del instante n se dice que la cadena de Markov eshomogénea. Las probabilidades de transición estructuradas en formamatricial da lugar a lo que se denomina matriz de transición. Dicha matrizrelaciona los estados de la variable en dos pasos consecutivos y n+1 através de sus probabilidades de transición.

 Periodo n+1 

Estado1

... EstadoM

 Periodo n

Estado

1 p11 p1* p1M 

.... P * 1 p** p*M 

Estado

M pM 1 pM* pMM 

Una probabilidad de transición pij ^(n) de n pasos entre los estados i y jindica la probabilidad de que partiendo del estado i en pasos se llegue al estado j.

INDICE   

Ecuaciones de Chapman-Kolmogorov 

Page 3: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 3/51

   Estas ecuaciones proporcionan un método para determinar las probabilidades de que un proceso del estado i notada por pij ^(n). 

 pij ^(n) =   k=0..K  pik ^(m) pkj ^(-m) ;  i,j,n; 0<m n

Cada sumando representa la probabilidad de que partiendo del estado i se llegue al estado k transcurridos m períodos y posteriormentedesde el estado k se llegue al estado j en n-m períodos.

INDICE   

Clasificación de los estados en una cadena de Markov 

 Las probabilidades de transición asociadas a los estados juegan un papel importante en el estudio de las cadenas de Markov. Para describir con mas detalles las propiedades de una cadena de Markov es necesario

 presentar algunos conceptos y definiciones que se refieren a estos estados.U estado j es accesible desde el estado i si para algún n se tiene que

 pij ^(n) >0.Una cadena de Markov se puede dividir en clases. Una clase está

 formada por todos los estados que son accesibles entre sí .Considerando las probabilidades f ii de que el proceso regrese al estado icomenzando en el estado i se puede clasificar los estados en recurrente sí 

 f ii =, transitorio sí f ii <1y absorbente sí pii =1. En una cadena de Markov finita e irreducible todos los estados de dichacadena so recurrentes.

 El período de u estado i es el número T de períodos para el cual se cumpleque pij ^(n) =0, siendo los valores distintos de T, 2T, 3T,.. y T es el valor máselevado que cumple esa propiedad.Un estado es apériodico si la variable aleatoria puede encontrarse en el mismo estado en dos períodos consecutivos.Un estado i es recurrente positivo si comenzando en el estado i el tiempo

esperado para que el proceso regrese al estado i es finito.

Un estado se denomina esgórico si es recurrente positivo y ademásaperiódico. Una cadena es ergórica si todos sus estados son esgóricos.

INDICE   

Tiempos de primera pasada. 

 Es importante el nº de transiciones de que hace el proceso al ir del estado i al  j  por primera vez; a esto se llama “tiempo de 1ª pasada”.

Page 4: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 4/51

”Tiempo de recurrencia” será una particularización de lo anterior  para i= j (nº de transiciones hasta volver al estado inicial i ).

 En general los tiempos de 1ª pasada son variables aleatorias, dondelas distribuciones de probabilidad dependen de las probabilidades de

transición del proceso. Éstas probabilidades satisfacen lo siguiente: f ij

(1)=pij(1)=pij 

 f ij(1)=  pik  f kj

(1) k   j 

 f ij(n)=  pik  f kj

(n-1) k   j 

 La última suma puede resultar menor que 1, lo que significa que un proceso que comienza en i , puede nunca alcanzar el estado j. Es sencillocalcular el tiempo de primera pasada de i a j; siendo  ij esta esperanza:

  ì   si    f ij

(n) 1 ij =   n=1 

     ï   n f ij

(n)=1   si    f ij(n)=1 

î  n=1 n=1

 ij satisface de manera única, la ecuación:  ij =1+  pik   kj k   j 

que reconoce que la 1ª transición puede ser al estado j o a algún otroestado k .

 Para el caso de  ii (con j=i)es el nº esperado de transiciones para que el  proceso regrese al estado i(“tiempo esperado de recurrencia”).Éstos secalculan de inmediato de la forma:

 ii =----- siendo  i las probabilidades de estado estable. i 

INDICE   

Estados Absorbentes. 

Page 5: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 5/51

Un estado se llama absorbente si pik =1, es decir, si una vez que el estado llega a k, permanece ahí para siempre. Si k es un estado absorbente

 y el proceso comienza en i, la probabilidad de llegar a k se llama probabilidad de absorción de k (f ik  ). Si se tienen 2 o más estados

absorbentes, el proceso será absorbido por uno de éstos. Para saber cual,hay que resolver el sistema de ecuaciones: 

 f ik =  pij f  jk   para i=0,1,…,M   j=0 

 Esto es importante en las “caminatas aleatorias”: cadenas de Markov en las que si el sistema se encuentra en el estado i , entonces, en

una sola transición, o permanece en i , o se mueve a uno de los 2 estadosinmediatamente adyacentes a i.

INDICE   

Cadenas de Markov en tiempo continuo 

Se etiquetan los estados posibles del sistema 0,1,…,M. Se comienzaen 0, y t  0. Sea la v.a.X(t´) el estado del sistema en t´. Tomará un valor en0 t´<t 1 , después tomará otro valor en t 1 t´<t 2 ,… 

 Es interesante conocer el estado del proceso en t´=s+t(t unidades enel futuro). Será sencillo conocerlo si el proceso tiene lapropiedad markoviana :

 P   X( s+t )= j /X( s )=i y X( r  )=x( r  )= P   X( s+t )= j /X( s )=i  i,j y  r  0, s>r  y t>0.

 P   X( s+t )= j /X( s )=i es una probabilidad de transición. Si es independientede s , se llamará probabilidad de transición estacionaria.

Un proceso estocástico de tiempo continuo   X(t); t  0 es una

cadena de Markov de tiempo continuo si tiene la propiedad markoviana.INDICE   

Algunas v. a. importantes:  

*La distribución de probabilidad del tiempo que falta para que el  proceso haga una transición fuera de un estado dado es siempre lamisma(independientemente del tiempo que el proceso haya pasado en eseestado), es decir:no tiene memoria. La única distribución en TC que

cumple esto es la distribución exponencial: P  T i t =1-e-qt   para t  0 (parámetro q, media 1/q).

Page 6: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 6/51

  Por tanto, describiremos la cadena de Markov:

-La v.a. T i tiene una distribución exponencial con media 1/q.-Al salir de un estado i , se pasa a otro j , con probabilidad pij que

cumple que pij=0 para toda i , y la suma de todas las pij es 1.-El siguiente estado que se visita tras i , es independiente del tiempotranscurridoen i.

 Las intensidades de transición(probabilidades de transición, pero en TC) :d 1 pii(t)

qi=    pii(0)=lim   , para i=0,1,2,…,M, dt t  0 t 

 yd 1 pij(t)

qi=    pij(0)=lim  = qi pij , para toda j i dt t  0 t 

donde pij es la función de probabilidad de transición de TC, q i y qij son lastasas de transición(qi=  qij ).

i  j 

INDICE   

Probabi l idades de estado estable:  

 La función de probabilidad de transición de TC satisface lasecuaciones de Chapman-Kolmogorov, luego para cualequiera estados i , j ynúmeros t y s(0  s<t):

 pij=  pik (s)pkj(t-s) para i=0,1,…,M  k =1 

Se dice que un par de estados i , j se comunican si existen tiempos t 1 ,t 2 tales que pij(t 1 )>0 y pij(t 2 )>0. Todos los estados que se comunican

 forman una clase. Si todos los estados en una cadena forman una clase,entonces la cadena será irreducible, por lo que:

 pij(t)>0, para todo t>0 y todos los estados i , j , y más aún:

Page 7: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 7/51

lim pij(t)=  j llamadas probabilidades de estado estable(oestacionarias).t   

 Las probabilidades estacionarias satisfacen:  M    j q j=    i qij para j=0,1,…,M  y      j=0i  j j=0 

(éstas ecuaciones se suelen llamar de balance).

INDICE   

Ejemplos expl icativos  

   Problema de ratón:o  Texto (.doc) o  Transparencias (.ppt) 

   Problema de la telefonía móvil  

Cadenas de Markov

Un proceso estocástico en tiempo discreto es una Cadena de Markov en la medida que se

verifiquen las siguientes propiedades:

Propiedad Markoviana: 

Donde i0, i1, ..., in-1, i, j son posibles “ estados” o valores que puede tomar el proceso

estocástico en las distintas etapas. Esto consiste básicamente en afirmar que el futuro

(t=n+1) es independiente del pasado dado el presente (t=n).

Propiedad Estacionaria: La probabilidad

Page 8: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 8/51

No depende de la etapa n. Por ejemplo, la probabilidad de pasar del estado i al estado j será

siempre la misma no importando el número de la etapa.

Si consideramos que la variable aleatoria asociado a este proceso markoviano toma un

número finito de estados (digamos M) las probabilidades de transición de un estado a otro se

pueden resumir en una matriz P denominada matriz de transición de probabilidades en unaetapa. Adicionalmente si conocemos la distribución de probabilidad para la etapa inicial (que

denotamos por f0) estamos en condiciones de conocer el proceso estocástico, que consiste

en determinar la distribución de probabilidad en cada etapa.

Ejemplo Cadena de Markov en Tiempo Discreto

Suponga que en un juego existen 2 jugadores, cada uno de los cuales dispone inicialmente

de 2 monedas. En cada jugada se gana una moneda con probabilidad ½ o se pierde una

moneda con probabilidad ½. El juego termina cuando un jugador tiene 4 monedas o se

queda con ninguna. Modele como una Cadena de Markov la situación descrita.

Desarrollo: El primer caso consiste en identificar la variable aleatoria la cuál debe

representar el problema planteado, en este caso la evolución del juego al cabo de cada etapa

o jugada. Se define la variable aleatoria en tiempo discreto Xn : Cantidad de monedas que

tiene uno de los jugadores (digamos el jugador A) al cabo de la enésima jugada.

Luego se debe identificar los posibles valores o estados que puede tomar esta variable

aleatoria para una etapa n cualquiera. Sabemos que el jugador A comienza el juego con 2

monedas y el juego termina cuando pierde todo (y por tanto el jugador B gana) o cuando

gana todo (y por tanto el jugador B pierde). En consecuencia, los valores posibles para Xn

son{0,1,2,3,4}.

A continuación se debe determinar las probabilidades de transición (en una etapa). Por

ejemplo, si actualmente el jugador A tiene 2 monedas, la probabilidad que tenga 3 monedas

al cabo de una jugada es ½ (probabilidad de ganar) y la probabilidad de que tenga 1 moneda

es ½ (probabilidad de perder). De esta forma se identifican las distintas combinaciones o

probabilidades de que comenzando en un estado "i" se pueda pasar a un estado "j" al cabo

de una etapa. Notar que si el jugador A tiene 0 monedas la probabilidad que continue en ese

estado es 1 (o 100%) dado que no tiene monedas para seguir jugando. De la misma forma

si el jugador A tiene 4 monedas el jugador B tiene 0 y por tanto la probabilidad de que el

 jugador A se mantenga en ese estado es de 1 (o 100%).

Page 9: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 9/51

Las probabilidades de transición en una etapa se pueden representar haciendo uso de un

grafo o en forma resumida a través de la matriz de transición de probabilidades.

Cabe destacar que la suma de las probabilidades para cada fila en la matriz de transición P

es de un 100%.

Podemos responder preguntas adicionales cómo por ejemplo ¿Cuál es la probabilidad de que

el jugador A tenga 2 monedas al cabo de 2 jugadas?

Haciendo uso del grafo y dado que actualmente el jugador A tiene 2 monedas, se busca

identificar las combinaciones que permitan a este jugador mantener esta cantidad de

monedas al cabo de 2 etapas. Esto se logra ganando la próxima jugada (con probabilidad ½)

y perdiendo la jugada que sigue (con probabilidad ½). También se llega al mismo resultadoperdiendo la próxima jugada pero luego ganando en la jugada que sigue. Por tanto la

probabilidad de tener 2 monedas al cabo de 2 etapas es P(X2=2/X0=2) = ½*½ + ½*½

= ½.

Clasificación de estados de una Cadenade Markov

Para la clasificación de estados de una Cadena de Markov en tiempo discreto utilizaremos 2

ejemplos:

Ejemplo 1: 

Page 10: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 10/51

Ejemplo 2: 

Si existe una probabilidad no nula que comenzando en un estado i se pueda llegar a un

estado j al cabo de un cierto número de etapas (digamos n) se afirma que el estado j

es accesible desde el estado i. Si consideramos el ejemplo 1 podemos afirmar que el estado

3 es accesible desde el estado 1. Aún cuando en una etapa no podemos llegar desde el

estado 1 al estado 3, si podemos hacerlo al cabo de 2, 3, ..., n etapas. Cabe destacar en este

punto que es relevante que exista una probabilidad no nula que comenzando en 1 se pueda

llegar a 3 al cabo de un cierto número de etapas no importando el valor exacto de esta

probabilidad para un n cualquiera. En cuanto al ejemplo 2, se puede verificar que el estado 2

es accesible desde el estado 3, sin embargo, el estado 2 no es accesible desde el estado 4

(esto porque una vez que se llega al estado 4 no se sale de ese estado). Finalmente, dos

estados que son accesibles viceversa se dice que se comunican y que pertenecen a

una misma clase de estados.

Una Cadena de Markov donde todos sus estados son accesibles entre sí y por tanto se

comunican se dice que es irreducible, es decir, que existe una única clase de estados.

Este es el caso del ejemplo 1.

En cambio si al menos existen 2 clases de estados la cadena ya no es irreducible. Si

tenemos 2 estados que no se comunican (esto porque no son accesibles viceversa) estos

estadosperteneceran a distintas clases de estados. En el ejemplo 2 existen 3 clases de

estados {0}, {1,2,3}, {4} (en consecuencia no es una cadena irreducible). En cuanto al

estado 0 y estado 4, estos son estados absorventes debido a que una vez que se accede a

ellos la probabilidad de seguir en ese estado es de un 100%. Un estado absorvente define

una clase de estados por si mismo.

Una definición adicional es la periodicidad de un estado. Un estado se dice que tiene periodo

d, para el mayor valor entero de d que cumpla:

sólo para valores de n pertenecientes al conjunto {d, 2d, 3d, ....}. Si d=1 decimos que el

estado es aperiódico. En otras palabras, un estado es periódico si, partiendo de ese

estado, sólo es posible volver a él en un número de etapas que sea múltiplo de un cierto

número entero mayor que uno

En el ejemplo 1 todos los estados son aperiódicos. En el ejemplo 2 los estados 1, 2 y 3 son

periódicos con periodo d=2, es decir, que comenzando, por ejemplo, en el estado 1, la

probabilidad de volver al mismo estado es sólo no nula para una cierta cantidad de pasos o

etapas múltiplo de 2.

Un estado es recurrente en la medida que comenzando en él se tenga la certeza de volver

en algun momento del tiempo (una determinada cantidad de etapas) sobre si mismo.

Page 11: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 11/51

Alternativamente, un estado es transciente si no se tiene la certeza de volver sobre si

mismo. En el ejemplo 1 todos los estados son recurrentes. En el ejemplo 2 los estados 1, 2 y

3 son transcientes debido a que si se comienza en cualquiera de ellos no se puede asegurar

con certeza que se volverá al mismo estado en algún momento (esto debido a que existe

una probabilidad no nula de acceder a un estado absorvente: 0 o 4). Los estados

absorventes por definición son estados recurrentes.

Si tenemos una Cadena de Markov que tiene una cantidad finita de estados e identificamos

un estado recurrente, este será recurrente positivo. Si la cantidad de estados es infinito

entonces un estado recurrente será recurrente nulo.

Distribución estacionaria de una Cadenade Markov

Se dice que una Cadena de Markov en tiempo discreto admite una distribución estacionaria

en la medida que las probabilidades de largo plazo existen y es independiente de la

distribución inicial (f0).

En este sentido se deben verificar ciertos requisitos para la existencia de esta distribución de

probabilidades de largo plazo: la cadena debe ser irreducible y sus estados deben ser

recurrentes positivos aperiódicos. Se recomienda revisar en detalle la clasificación de

estadosantes del cálculo de la distribución estacionaria.

La distribución estacionaria se obtiene a través de la solución única del siguiente sistema de

ecuaciones:

Ejemplo cálculo distribución estacionaria de unaCadena de Markov

Considere la siguiente matriz de transición de probabilidades para un proceso markoviano en

tiempo discreto:

Calcule la probabilidad de encontrarse en cada uno de los estados en el largo plazo.

Desarrollo: Para verificar la existencia de una distribución estacionaria debemos analizar si

la cadena es irreducible (es decir, existe una única clase de estados) y los estados que la

Page 12: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 12/51

componen son recurrentes positivos aperiódicos. Para facilitar este proceso se recomienda

utilizar una representación gráfica o grafo:

El estado 2 es accesible desde el estado 1, es decir, existe una probabilidad no nula que

comenzando en el estado 1 se pueda llegar al estado 2 al cabo de n etapas (no

necesariamente esto debe ser al cabo de una etapa). También se puede verificar que elestado 1 es accesibledesde el estado 2, por tanto se concluye que el estado 1 y 2

se comunican. Cabe destacar que2 estados que se comunican pertenecen a una

misma clase de estados. Adicionalmente se puede demostrar que el estado 3 es accesible

desde el estado 2 y el estado 2 es accesible desde el estado 3. Por tanto el estado 2 y 3 se

comunican y por transitividad el estado 1 y 3 se comunican. Se concluye entonces que existe

una sola clase de estados que contiene a {1,2,3} y por tanto la cadena es irreducible.

Los estados 1, 2 y 3 son recurrentes y dado que la cadena tiene una cantidad finita de

estados se puede afirmar que éstos son recurrentes positivos.

Finalmente los estados son aperiódicos, es decir, no existe una secuencia de pasos tal para

que comenzando en uno de ellos se pueda volver sobre si mismo (con probabilidad no nula)

al cabo de un cierto número de pasos o etapas.

Una vez que se han verificado las condiciones necesarias para la existencia de una

distribución estacionaria se formula el sistema de ecuaciones que permitirá encontrar las

probabilidades de estado de largo plazo. En nuestro ejemplo el sistema queda definido por:

La resolución del sistema anterior permite encontrar que:

Page 13: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 13/51

 

Se concluye que en el largo plazo la probabilidad de estar en el estado 1 es de un 25% y la

probabilidad de estar en el estado 2 y 3 es de un 37,5%.

Distribución Estacionaria y Distribución Límite

Dis tr ib uc ión Lím ite 

Tenemos una matriz de Markov con una

distribución inicial entonces la distribución

límite será:

si llamamos Q al límite de Tk 

cuando k ∞

entonces

Observación:

La manera de calcular la matriz Q es un tanto

complicado para hacer a mano, la manera más

 práctica es tomando valores de k altos y

comprobando que Tk permanece estable.

Distr ibuc ión Estacionaria 

La distribución estacionaria es una distribución de

 probabilidad que cumple:

y por tanto es solución del siguiente sistema

Page 14: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 14/51

 

La distribución estacionaria será pues unadistribución estable que no cambia con el transcurrir de

las etapas.

Propiedades d e las Cadenas Regulares 

Si una cadena de Markov es regular entonces

cumple las siguientes propiedades:

  Existe la distribución límite ql , la cual será

independiente del estado inicial y además será igual

a la distribución estacionaria .

  La matriz Q límite de Tk cuando k ∞ tiene todas

las filas iguales y esas filas serán precisamente ladistribución estacionaria-límite.

  La componente i de la matriz estacionaria

representa la probabilidad de que eligiendo unaetapa al azar la cadena se encuentre en el estado ei 

Observación:

Como en las cadenas regulares la distribución

límite es equivalente a la estacionaria tenemos dosformas de calcular esta distribución

  De forma manual, resolviendo el sistema visto

anteriormente

  Utilizando software que permita realizar potencias

de matrices. Lo que deberemos hacer será Tk con un

k “suficientemente grande” obtendremos la

distribución límite-estacionaria si el resultado es

una matriz con las filas iguales

Page 15: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 15/51

Ejemplos de Cálculo de Distribuciones Estacionarias yLímite

  Consideremos el ejemplo de las compañías

telefónicas cuya matriz de transición era

En este caso estamos tratando con una cadena

regular ya que T tiene todos los elementos positivos,

 por tanto la distribución estacionaria será igual a la

distribución límite, podemos por tanto utilizar el

software para calcular T100

:

Por lo tanto la distribución buscada será

Y la interpretación que le podemos dar es que la

empresa A se acabará quedando con un 21,429% dela cuota de mercado, la empresa B con un 23,214%

y la C con un 55,357%

  Consideremos ahora la cadena definida por el

siguiente grafo

La matriz de transición en este caso será

Page 16: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 16/51

Esta cadena no será regular ya que si partimos

 por ejemplo del estado E1 no podremos estar en E3

después de un número impar de etapas.

Al no ser regular la cadena no tenemos

garantizado que exista una distribución límite ni quecoincida con la estacionaria, por lo que habrá que

calcularlas de manera independiente.

Para calcular la distribución estacionaria

deberemos resolver el sistema

cuya solución es

y por tanto la distribución estacionaria

será

Por otra parte si intentamos calcular ladistribución límite observaremos que

si k es par 

y

si k es impar 

Con lo cual deducimos que el límite no existe ya

que la distribución de probabilidades va oscilando.

Ejercicios Propuestos

1.- En cierto mercado compiten tres marcas de

cierto producto de consumo que se adquiere

semanalmente. Efectuando un sondeo entre los

establecimientos minoristas en los que se vende se

Page 17: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 17/51

estima que, de cada cien consumidores del producto,

en la semana que ahora termina diez adquirieron la

marca 1, veinte la marca 2 y setenta la marca 3. Se

ha realizado, además, un sondeo sobre la intención

de compra de los consumidores y se ha llegado a laconclusión de que:

De cada 100 consumidores que adquirieron la

marca 1 la pasada semana, 50 volverán a adquirirla,

10 cambiarán a la 2 y el resto adquirirá la tres.

Con relación a la marca 2, de cada 100 que laadquirieron la pasada semana, 80 la volverán a

adquirir, 10 cambiarán a la 1, y otros 10 a la 3.

En cuanto a la marca 3, de cada 100 adquirientesla última semana, 30 cambiarán a la 1, 20 a la 2 y el

resto volverán a adquirir la misma.

Se desea estimar las cuotas de mercado de lastres marcas en la semana finalizada y prever las de la

 próxima.

Suponiendo que las proporciones de

consumidores que cambian de marca permanezcan

estables, calcula la cuota de mercado a largo plazo.

2.- Una persona puede escoger entre tres

restaurantes para comer diariamente. si un día

escoge el restaurante A, al día siguiente escoge el B

y al día siguiente del B siempre el C, pero cuando vaa C es igualmente probable que al día siguiente vayaa A o a B. Escribir la matriz de transición del

 proceso y calcular:

a.  la probabilidad de que vaya a B tres días

después de ir a A.

 b.  Las probabilidades absolutas de ir a cada

restaurante cuatro días después de ir a B.

c. 

El promedio de veces que va a cadarestaurante.

Page 18: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 18/51

 

3.- Dado el

sistema de la

figura calcula:

a.  La

matriz de transición

 b.  La distribución estacionaria.

c.  La probabilidad de estar en el estado 6

dentro de 5 etapas si ahora está en elestado 3

d.  El promedio de veces que el sistema se

encuentra en el estado 4.

4.- Un agente comercial realiza su trabajo en tres

ciudades gallegas: La Coruña, Ferrol y Santiago.

Para evitar desplazamientos innecesarios está todo eldía en la misma ciudad y duerme en ella,

Page 19: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 19/51

desplazándose a otra al día siguiente, si no tiene

suficiente trabajo. Después de estar trabajando un

día en La Coruña, la probabilidad de tener que

seguir trabajando en ella al día siguiente es de 0.4, la

de tener que viajar a Santiago es 0.4y la de tener queir a Ferrol es de 0.2. si el viajante duerme un día en

Santiago, con probabilidad del 20% tendrá que

seguir trabajando en la misma ciudad al día

siguiente, en el 60% de los casos viajará a La

Coruña, mientras que irá a Ferrol con probabilidad0.2. Por último, si el agente comercial trabaja todo

un día en Ferrol, permanecerá en al misma ciudad ,

al día siguiente, con una probabilidad de 0.1, irá a

Santiago con una probabilidad de 0.3 y a La Coruña

con probabilidad 0.6.

¿Cuáles son los porcentajes de días en los que el

agente comercial está en cada una de las tres

ciudades?.

5.- Pedro es un lector aficionado a la ciencia

ficción, novela policíaca y astronomía. Cada semana

se compra un libro. Si ahora está leyendo novela

 policíaca, hay un 70% de probabilidades de que lasemana que viene lea astronomía. Nunca lee dos

novelas policíacas seguidas. Si está leyendo ciencia

ficción hay un 75% de que lea astronomía y un 25%

de que lea una novela policíaca. Después de leer 

astronomía siempre lee una novela policíaca.

a.  Calcula el porcentaje de libros de

astronomía que tiene en casa después de

5000 semanas.

 b.  Calcula la probabilidad de leer ciencia

ficción en cualquiera de las tres semanas

siguientes a la lectura de un libro deastronomía.

Page 20: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 20/51

 

6.- Una centralita telefónica se revisa cada día, pudiendo estar en perfectas condiciones o bien

 presentar dos tipos distintos de avería (leve o

importante). Se supone que el estado de la centralitaen un día depende del estado del último día

observado. Así, si un día la centralita funciona

correctamente, la probabilidad de que al día

siguiente también lo haga es de 0.95, la de que tenga

avería leve es de 0.04 , mientras que la de avería

importante es de 0.01. En el 75% de los casos en los

que la centralita tenga una avería leve, esta es

reparada de manera que funcione correctamente al

día siguiente. En el 20% de los casos, la avería leve persiste al siguiente día, mientras que en el restante

5% se agravará. Cuando la centralita tiene una avería

importante pueden ocurrir dos cosas: se repara al día

siguiente (con una probabilidad de 0.2) o sigue

teniendo la avería grave. Se pide:

a.  Encontrar el grafo y la matriz de

transición de la cadena de Markovasociada al enunciado.

 b.  Si la centralita funciona correctamente un

día, ¿cuál es la probabilidad de que dentrode 8 días también esté en perfectas

condiciones?

c.  A largo plazo, ¿cuánto valen las

 probabilidades de que la centralita

funcione bien, la de que tenga avería leve

y la de que tenga avería grave?

7.- En un instituto hay dos fotocopiadores

iguales, que inicialmente se suponen en

funcionamiento. A lo largo de un día, cadafotocopiadora se avería con una probabilidad de ¼.

Al final de la jornada laboral se da parte de las

averías producidas a la empresa de mantenimiento

que las repara en 24 horas (pero no antes).

Page 21: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 21/51

a.  ¿Cuál es la distribución del número de

fotocopiadoras que están en servicio en el

cuarto día?

 b.  ¿Cuál es el porcentaje de días en los que

el instituto no tiene ninguna fotocopiadoradisponible?

8.- En la maravillosa tierra de Oz el tiempofunciona de la siguiente manera:

Hay tres posibilidades, bien nieva, bien llueve o

 bien hace sol. Nunca nieva dos días seguidos y si un

día lo hace la probabilidad de que al siguiente lluevaes de 1/3. Después de llover no nieva nunca y hay

una probabilidad de 3/4 de que haga sol. Si un día

hace sol al día siguiente nieva un 20% de las veces y

llueve un 25%.

a.  Dibuja un grafo que represente el clima

en la tierra de Oz.

 b.  Obtén la matriz de probabilidades.

c.  Calcula el porcentaje de días que nieva.

d.  Si hoy hace sol ¿cuál es la probabilidad

de que dentro de 2 días llueva?. ¿Y dentrode 10 días?. ¿Qué observas?

4- Cadenas de Markov Editar 3 34…  

Para muchos, en un principio lo relacionado con esta temática fue totalmente nuevo, oquizás desconocían por completo que más que un tema a tratar en clase, es algo conlo que diario nos tropezamos. Alguna vez hemos escuchado las predicciones de algúnmeteorólogo a través de la radio o la televisión, o durante su vida crediticia ha tenidoque estar pendiente de una certificación de Data-crédito para el estudio y aprobaciónde un crédito. Analicemos lo que en ambos casos se da: el meteorólogo seguramenteconsulta las imágenes satelitales; pero también sabe que el clima en un día del añocorresponde de alguna manera a un fenómeno aleatorio, es así como hoy puede ser soleado (temperaturas altas), ser lluvioso o fresco sin lluvia, y que el clima estaría enuna y solo una de estas tres posibilidades y que la ocurrencia de una de ellas excluyea las demás. También es fácil ver que la probabilidad de que en un día específicollueva, o sea soleado o fresco sin lluvia, está muy relacionada con lo ocurrido al climael día anterior. En la situación de Data-crédito las entidades financieras saben que sus

Page 22: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 22/51

clientes pueden ser fácilmente clasificados de acuerdo al manejo de sus créditos enexcelentes, buenos o deficientes, y que si un cliente es clasificado en alguna de ellasen un mes específico, entonces se excluye de las otras posibilidades; y que estasclasificaciones obedecen a cierta aleatoriedad; estos sencillamente son fenómenosrelacionados con cadenas de markov. 

Lo correspondiente a cadenas de markov se lo debemos al matemático ruso  AndreiMarkov quien desarrolló la actual teoría de procesos estocásticos en el campo de lateoría de la probabilidad. De manera muy exacta, una cadena de markov es una seriede eventos, en la cual la probabilidad de que ocurra un evento depende del eventoinmediato anterior (tal como nos muestra los ejemplos anteriormente mencionados).Enefecto, las cadenas de este tipo tienen memoria, "Recuerdan" el último evento y estocondiciona las posibilidades de los eventos futuros. Como toda herramienta, por muy útil que parezca ser, mantiene su margen de error, olo que en otras palabras consideraríamos como desventajas, y por otro lado ventajas,tales como: 

Ventajas 

  Pueden describir sistemas muy complejos.   Pueden ser usados para experimentar con sistemas que existan o que no existan sin

alterarlos. 

Desventajas: 

  No existe un conjunto de soluciones cerradas.   Cada cambio en las variables de entrada requiere una solución separada o conjunto

de ejecuciones. 

  En los modelos de simulación, pueden requerir mucho tiempo para construirlos yejecutarlos. 

Finalmente las cadenas de markov, se pueden aplicar en áreas como la educación,comercialización, servicios de salud, finanzas, contabilidad y producción. 

CADENAS DE MARKOV

Page 23: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 23/51

 En los problemas de toma de decisiones, con frecuencia surge la necesidad de tomar decisiones basadas en fenómenos que tienen incertidumbre asociada a ellos. Estaincertidumbre proviene de la variación inherente a las fuentes de esa variación que eluden elcontrol o proviene de la inconsistencia de los fenómenos naturales. En lugar de manejar estavariabilidad como cualitativa, puede incorporarse al modelo matemático y manejarse en formacuantitativa. Por lo general, este tratamiento se puede lograr si el fenómeno natural muestra un

cierto grado de regularidad, de manera que sea posible describir la variación mediante unmodelo probabilístico.

 Antes de abordar el tema de las cadenas de markov, debemos tener en cuenta que existenmodelos de probabilidad para procesos que evolucionan en el tiempo de una maneraprobabilística, tales procesos se llaman Procesos Estocásticos.

Después de abordar el tema de procesos Estocásticos, hablaremos de las cadenas de markov.

Las Cadenas de Markov tienen la propiedad particular de que las probabilidades que describenla forma en que el proceso evolucionara en el futuro dependen solo del estado actual en que seencuentra el proceso y, por lo tanto, son independientes de los eventos ocurridos en el pasado.Muchos procesos se ajustan a esta descripción por lo que las cadenas de Markov constituyenuna clase de modelos probabilísticas de gran importancia.El creador de las cadenas de Markov fue Andrei Andreevich Markov, nació en Ryazan (Rusia)el 14 de junio de 1856 y muere en San Petersburgo en 1914. Este, es uno de los conceptosmás importantes en la construcción de modelos en gran cantidad de campos que abarcandesde la sociología a la física teórica, pasando por la ingeniería y la matemática.Markovestudió en San Petersburgo y era mal estudiante en todo menos en matemáticas. Inició susestudios universitarios de matemáticas en 1874 que acabó en 1878, siendo premiado con unamedalla de oro al terminarlos. Su tesis doctoral estuvo en el ámbito de la teoría de números,pero con la retirada de Chebychev (quien fue su maestro y mentor), en 1883, Markov pasó aencargarse del curso sobre la teoría de la probabilidad continuando con el mismo inclusodespués de su retirada de la universidad en 1905.Sus primeras contribuciones son relativas alteorema límite central para variables independientes pero no idénticamente distribuidas. Sinduda la más grande de sus contribuciones, fue la introducción del concepto de cadena deMarkov, como un modelo para el estudio de variables dependientes, el cual dio lugar a unagran cantidad de investigaciones posteriores en la teoría de los procesos estocásticos.Fuentes:http://www.ugr.es/~eaznar/markov.htm 

Page 24: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 24/51

PROCESOS ESTOCÁSTICOS Es un conjunto o sucesión de variables aleatorias: {X(t)CG } definidas en un mismo espacio deprobabilidad. En donde: 

• El índice t representa un tiempo y X(t) el estado del proceso estocástico en el instante t. • El proceso puede ser de tiempo discreto o continuo si G es discreto o continuo.  

• Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X1, X2, ...}  

Ejemplos de procesos estocásticos 

1.Serie mensual de ventas de un producto 2. Estado de una máquina al final de cada semana (funciona/averiada)  3. Nº de clientes esperando en una cola cada 30 segundos  4. Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen7 marcas diferentes 5. Nº de unidades en almacén al finalizar la semana 

CADENAS DE MARKOV 

Una cadena de markov es un caso especial de los procesos estocásticos que cumplen la propiedad demarkov. Se utilizan para estudiar el comportamiento a corto y largo plazo de ciertos sistemas estocásticos.En otras palabras las cadenas de markov sirven para determinar futuras acciones solamente dependiendodel estado inmediatamente anterior y solo de este (no se tiene en cuentas otros estados en el pasado).Estas pueden ser con tiempo continuo o discreto. Matemáticamente seria: 

 A la hora de representar una cadena de markov , esta puede representarse por medio de grafos o enforma matricial. Los grafos son conjuntos de nodos (vértices) unidos por enlaces llamados arcos (aristas),estos enlaces representan una probabilidad de transición (probabilidad de pasar de un estado a otroestado o quede en el mismo), mientras que los nodos representan los estados que posee la situación arepresentar. Es usual hacer primero la representación por medio de grafos y luego representarlo en formade matriz, Ejemplo: 

Page 25: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 25/51

 

Esta matriz lleva como nombre matriz de transición Y debe satisfacer las siguientes condiciones:  

Forma general de una matriz de transición: 

Generalmente pensamos que una cadena de markov describe el comportamiento de transición de unsistema en intervalos iguales. Existen situaciones donde la longitud del intervalo depende de las

características del sistema y, por tanto, puede tal vez no ser igual. En este caso se denomina cadenas demarkov encajadas. 

Probabilidades de transición: es la probabilidad de estaren un estado después de un numero determinadode transiciones, donde: 

Estas ecuaciones se conocen como las ecuaciones de chapman-kolomogorov. Ejemplo: 

Page 26: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 26/51

 

Y, en general: 

ELEMENTOS DE UNA CADENA DE MARKOV  –Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de laenfermedad)  –Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre

estados (ejemplo, un mes)  –Probabilidades de transición entre estados, en un ciclo (matriz P)  –Distribución inicial del sistema entre los M estados posibles  

ECUACIONES DE CHAPMAN-KOLMOGOROV Las ecuaciones de chapman-kolmogorov proporcionan un método para calcular la probabilidad de queuna variable aletoria, comenzando en el estado i se encuentre en el estado j después de n pasos. Lamatriz de probabilidad de transición de n pasos se puede obtener la n-esima potencia de la matriz de

transición de un paso. 

NOTA: una probabilidad incondicional es la probabilidad que despues de n pasos el proceso se encuentreen el estado i 

ESTADOS DE LAS CADENAS DE MARKOV 

Page 27: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 27/51

 1. Estado Absorbente. Este es un estado en el cual, no se puede salir de ese estado, es decir:  Pii = 1, Pij = 0 

2. Estado Periódico. Este estado se caracteriza porque despues de cada n-periodos, se repite la misma matríz, es decir:  Pii = 0, Pij <> 0 

3. Estado Recurrente. Este es un estado en el cual puedo volver al mismo estado, cuando quiera en n-pasos. Se puede hacer esto infinitamente. 

NOTA: Todos los estados periódicos so n recurrentes, pero no todos los estados recurrentes son 

periódicos"  

4. Estado Transitorio. No regresa al estado de modo seguro, es decir, un estado b tiene dos caminos por donde coger(a y c), sicoge por el camino del estado a, no puede volver al estado b, y por consiguiente, tampoco puede pasar alestado c, y si coge por el camino del estado c, no puede volver al estado b, y por consiguiente, tampocopuede pasar al estado a. 

5. Estado Ergódico. 

  Son estados No nulos, Recurrentes y Periódicos.   En este estado es posible ir de un estado i a cualquier otro estado j, y por eso se dice que cumple las

condiciones de estado estable, es decir, estas probabilidades cuando pase el tiempo, tienden a converger a medida que se incremente el numero de pasos (aplicando ecuaciones de Chapman-Kolmogorov) ycuando las probabilidades convergen, a estas se le llaman probabilidades de estado estable.  

PROPIEDADES DE LAS CADENAS DE MARKOV EN EL LARGO PLAZO Son aquellas que después de un numero grande de pasos, se encuentre en un estado i. 

π i= Probabilidad de estado estable, que después de n-pasos, el sistema se encuentre en i. 

Page 28: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 28/51

 Tiempo de recurrencia: 

  Numero esperado de transiciones para que regrese al estado estable.   Cuantos pasos se deben dar en promedio, para que si un estado salio de i, vuelva a ese estado i.    Es el inverso de las probabilidades de estado estable. 

Continuando con el tema de las cadenas de Markov, y sabiendo que es el proceso por medio del cual,podemos estudiar el comportamiento de ciertos sistemas estocásticos a corto y largo plazo. Mostraremosun ejemplo. 

Como ya hemos observado una cadena de markov puede clasificarse en los siguientes estados:  - Estado ergódico - Estado periódico - Estado recurrente - Estado absorbente 

Para estudiar las propiedades a largo plazo de las cadenas de Markov nos basamos específicamente enlas cadenas de Markov ergódicas. Recordemos que una C.M ergódica es aperiódica, recurrente y no nula(si hay estados absorbentes no es una cadena ergódica). En este tipo de cadenas se puede ir de unestado i a un estado j en n pasos, aunque no exista un arco dirigido de un estado i a un estado j , es decir,tiene la libertad de ir de un estado a cualquier otro en n pasos. Esto nos lleva a afirmar que hay unaevidencia de que existen condiciones de estado estable, por lo tanto, las probabilidades cada vez queavance el tiempo van a tender a converger en cierto punto, como se desarrolló en la clase y lorecordaremos a continuación. 

Lo anterior se resuelve cuando aplicamos las ecuaciones de Chapman-Kolmogorov. Para tener una ideamás clara de ello, podemos remitirnos al ejemplo realizado en clase, donde para n pasos las

probabilidades se repetían. Entonces, tenemos la matriz de transición P: 

Page 29: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 29/51

 

 Ahora hallamos en excel la matriz P en dos pasos: 

Por último obtenemos P en cuatro pasos, y como podemos ver los valores tienden a tener las mismasprobabilidades. A estas les llamamos probabilidades de estado estable, ya que mantienen valores fijosque a su vez nos indican donde encontrar el proceso después de un gran número de transiciones.  

Page 30: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 30/51

 

en donde, para una cadena de markov irreducible ergódica 

donde las πj satisface las siguientes ecuaciones de estado estable: 

además, las πj pueden ser interpretadas como las probabilidades estacionarias, las cuales se pueden

expresar para la matriz anterior de la siguiente manera: Para obtener los resultados de arriba, podemos aplicar el producto cruz, o bien resolverlas por medio de la herramienta de excel llamadasolver, muy útil para obtener al final el valor de las probabilidades estacionarias.

Page 31: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 31/51

 

TIEMPO PROMEDIO DE PRIMER PASAJE 

En una cadena ergódica, sea número esperado de transiciones antes dealcanzar por primera vez el estado j, dado que estamos actualmente en el estado

i. se llamatiempo promedio de primer pasaje del estado i al estado j.

Suponga que estamos ahora en el estado i. Entonces, con probabilidad ,

necesitaremos una transición para pasar del estado i al estado j. Para

pasamos a continuación, con probabilidad , al estado k. En este caso, se

necesitará un promedio de transiciones para pasar de i a j. Este modode pensar indica que: 

Como 

Podemos reformular la ultima ecuación como 

 Al resolver las ecuaciones lineales representadas en , podemos encontrar todoslos tiempos promedios de primer pasaje. Se puede demostrar que 

Page 32: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 32/51

Con ello se puede simplificar el uso de las ecuaciones . 

Fuente: WINSTON Wayle L. Investigación de operaciones aplicaciones y algoritmos 

Tiempos de la primera o las (n) pasadas 

También se ve en algunos libros comotiempo de primer regreso donde

Que se halla por medio de la ecuación: 

Para el mismo ejemplo queriendo hallar la matriz f(3), comenzaríamos diciendo que la primera matriz para 

Luego para encontrar la probabilidad de ir desde i hasta j en 2 pasos, aplicamos la fórmula (1), y paratener un orden, comenzaremos por  

Por lo tanto . Así se sigue calculando hasta que sale la matriz: 

Page 33: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 33/51

 

 Ahora, para la de 3 pasos, utilizamos el mismo procedimiento, PERO con los datos para 2 pasos. Esdecir: 

ESTADOS ABSORBENTESLos estados bsorbentes son aquellos estados que cuando el proceso entra aellos nunca vuelve a salir; un estado k se llama estado absorbente si P kk = 1, de manera que una vez quela cadena llega a un estado k permanece ahi para siempre. si k es un estado absorbente y elproceso c omienza en el estado i, l probabilidad de l legar en algun momento a k se llama probabilidad deabsorcion al estado k.El estudio de estos estados son muy importantes y nos permiten determinar elnumero esperado de pasos antes de que el proceso sea absorbido. Es importante identificar en unamatriz cuales son los estados absorbentes y se busca una solucion a partir de ella, la matriz deprobabilidades de absorcion es la siguiente: 

figura 1En la matriz P, el lugar donde se encuentra situado Q colocamos las probabilidades de los estados no

absorbentes , en R las probabilidades de absorcion, mientra que en I encontramos las probabilidades delos estados absorbentes y 0 es una matriz nula.Para resolver esta matriz utilizamos las ecuaciones dechapman-kolmogorov y si hallamos P^2 sera

figura 2

Page 34: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 34/51

y asi P^n sera: figura3si hallamos el limite cuando n tiende a infinito nos queda

figura 4: este es el limite de las probabilidades de absorcionlamatriz (I-Q)^-1 se le llama la matriz fundamental de la cadena de markov y en esta matriz nos indican quesi estamos en un estado transitorio ti el numero de periodos que pasaran en un estado transitorio tj antes

de la absorcion es el ij-esimo elemento de la matriz (I-Q)^-1.en definición son las veces que habra quepasar por un estadoo transitorio antes de llegar a un estado absorbente).Y si estamos en el estadotransitorio ti la probabilidad ser absorbido por un estado absorbente aj es ij-esimo elemento de la matriz (I-Q)^-1R en definición son las probabilidad de terminar en cada uno de los estados absorbentes.Esimportante tener claro que en el momento de restar I-Q, esta matriz I debe ser del mismo rango que Q, yno es la misma matriz identidad de la figura 1, esta puede tener un rango (mxn) diferente.

Page 35: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 35/51

 

Este experimento tiene como fin la demostración de la propiedad que poseen las cadenas de Markovllamada estadosestable, donde las propiedades absolutas son independientes de a(0). Dicha propiedadse empieza a manifestar a partir de un número considerable de periodos (pasos), donde la probabilidadde encontrarse en cualquier estado es aproximadamente la misma. 

Para la ejecución del experimento se utiliza un reproductor de música (Windows Media Player); una vezabierto el programa se debe realizar una lista de reproducción, preferiblemente de 3 o 4 canciones,debido a que si se escoge un número mayor el espacio muestral (todos los posibles resultados que puedetener una variable) del experimento será muy grande. 

Del ejemplo, el espacio muestral se determina por la siguiente expresión: n2, donde n es el número decanciones en la lista de reproducción. Ejemplo: si se escogen 3 canciones, el espacio muestral para elexperimento sería 32=9, si son 5 canciones el espacio será 52=25 y así sucesivamente. Para tener una

idea más clara observe las siguientes representaciones: 

Para n igual a 3: 

Para n igual 5: 

Page 36: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 36/51

 

En este link podemos encontrar Todo lo relacionado con Propiedades a largo plazo de las Cadenas deMarkov 

http://www.investigacion-operaciones.com/Libro/Cadenas%20de%20Markov.pdf  

APLICACIONES DE LA CADENA DE MARKOV 

METEOROLOGIA: En los estudios meteorologicos que hacen para las regiones por varios dias, pues elestado actual depende del ultimo estado y no de la historia en si, y como sabemos que la cadena deMarkov no tiene memoria, ya que solo tiene en cuenta exactamente el episodio inmediatamente anterior,entonces aqui se pueden usar los modelos metodologicos un poco mas basicos de los usados.  

JUEGOS DE AZAR: Existen muchos juegos de azar que se pueden modelar por medio de la cadena deMarkov, como por ejemplo el modelo de la ruina del jugador, que ayuda a conocer la probabilidad de unapersona que apueste en un juego de azar pierda todo su dinero.  

NEGOCIOS: Aqui se utilizan para analizar los patrones de compra de las personas que estan en moracon algun pago establecido, tambien para saber cuales son las necesidades del personal y para organizar los reemplazos del equipo. 

NOTAS DE CLASE:Probabilidad de Transición: Probabilidad de pasar de un estado i a un estado j en undeterminado periodo. 

  UN PROCESO DE MARKOV ES UN MODELO ADECUADO PARA DESCRIBIR EL COMPORTAMIENTODE SISTEMAS DONDE: 

EL SISTEMA ESTA SITUADO EN UNO DE UN CONJUNTO DE ESTADOS DISCRETOS MUTUAMENTEEXCLUYENTES Y COLECTIVAMENTE EXHAUSTIVOS S0,S1, S2,...., Sn. 

  EL ESTADO PRESENTE DEL SISTEMA Y LAS PROBABILIDADES DE TRANSICION ENTRE VARIOSESTADOS DEL SISTEMA: 

  CARACTERIZAN EL COMPORTAMIENTO FUTURO DEL SISTEMA. 

DADO QUE UN PROCESO DE MARKOV SE ENCUENTRA EN UN ESTADO DETERMINADO, SU

COMPORTAMIENTO FUTURO NO DEPENDE DE SU HISTORIA ANTERIOR A SU ENTRADA A ESEESTADO. 

Page 37: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 37/51

  MUCHOS PROCESOS DE MARKOV EXHIBEN UN COMPORTAMIENTO DE ESTADO ESTABLE:   LAS PROBABILIDADES DE QUE EL PROCESO SE ENCUENTRE EN UN ESTADO DETERMINADO

SON CONSTANTES EN EL TIEMPO. 

SE DICE QUE UN ESTADO “Sj” ES TRANSITORIO SI DESDE UN ESTADO “Sk” QUE PUEDE SER

 ALCANZADO DESDE “Sj”, EL SISTEMA NO PUEDE REGRESAR  A “Sj”. 

  SE DICE QUE UN ESTADO “Sj” ES RECURRENTE SI DESDE CADA ESTADO “Sk” ALCANZABLEDESDE “Sj”, EL SISTEMA PUEDE REGRESAR A “Sk”. 

UNA CADENA SENCILLA ES UNA SERIE DE ESTADOS RECURRENTES TAL QUE EL SISTEMAPUEDE LLEGAR A CUALQUIER ESTADO DE LA CADENA DESDE CUALQUIER OTRO ESTADO DEESTA. UN CAMBIO DE ESTADO EN UN PROCESO DE MARKOV DE TRANSICION CONTINUA PUEDEPRODUCIR CAMBIOS DE ESTADO EN CUALQUIER INSTANTE DE UNA ESCALA DE TIEMPOCONTINUA. APLICACIONESJ  APLICACIÓN DE LAS CADENAS DE MARKOV A LOS PROCESOS DE SERVICIOS HOSPITALARIOS

PARA LA TOMA DE DECISIONES EN LA ADMINISTRACIÓN DE LA SALUD Teniendo en cuenta la necesidad imperiosa de satisfacer las necesidades de los pacientes cuando seencuentran recibiendo un servicio dentro de un centro hospitalario, se aplica la cadena de markov paradeterminar el tiempo promedio de estancia de los pacientes en una sala determinada, con un determinadonivel de probabilidad en dichos estados transitorios. Se arriba a los resultados para dar a los directivos de la institución una herramienta para la toma dedecisiones dentro del campo de la administración en salud, lo cual pudiera contribuir a conocer los costoshospitalarios de estadía, optimizar los recursos disponibles, perfeccionar los servicios de salud y lograr laexcelencia en los servicios prestados. Se hace énfasis en el uso de la cadena de markov como herramienta estadística que permite determinar la ocurrencia de un evento futuro en dependencia de la ocurrencia del evento inmediatamente anterior, ytiene como bondades que permite encontrar la probabilidad de que un sistema se encuentre en un estadoparticular en un momento dado y más importante aún, el promedio a la larga o las probabilidades de

estado estable para cada estado analizado, prediciendo el comportamiento del sistema a través deltiempo. Dicha herramienta de análisis a pesar de haber surgido a principios del siglo pasado es una técnicanovedosa, de gran utilidad y rigor científico que sirve tanto para economistas, sociólogos, físicos, y otrosinvestigadores que analicen un proceso dado bajo ciertas circunstancias probabilísticas. NOTA: AQUI dejo el link para que todos puedan leer este interesante articulo sobre las aplicaciones delas cadenas de markov. http://www.eumed.net/cursecon/ecolat/cu/2011/pdc.htm USO DE CADENAS DE MARKOV PARA LA PREDICCIÓN DE LA DINÁMICA DEL COMPORTAMIENTO DE PACIENTES EN UNA UNIDAD DE CUIDADO INTENSIVO CARDIOLÓGICA En este proyecto se presenta un modelo probabilístico que contribuye al estudio de la dinámica en el

comportamiento y permanencia de pacientes en una unidad de cuidados intensivos cardiológica. Elmodelo utilizado corresponde a una Cadena de Markov en tiempo discreto, que mediante la definición dedeterminados niveles de gravedad de un paciente (estados) y la obtención de las correspondientesprobabilidades de transición entre un nivel de gravedad y otro, permite predecir los tiempos depermanencia. Los diferentes estados empleados se basan en la construcción de un nuevo score creado para estepropósito. Se muestran los detalles de la metodología adoptada y los principales resultados alcanzadosen la aplicación del modelo empleado. 

NOTA: AQUI dejo el link para que todos puedan leer este interesante articulo sobre las aplicaciones delas cadenas de markov.

 

http://www.scielo.cl/pdf/ingeniare/v14n2/art09.pdf  

Page 38: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 38/51

 

Aplicaciones 

En su afán p or enc ontrar nuevas f orm as de energía el hom bre a explorado mu cho s 

campo s, asídefin ió la energía eólica, molec ular, h idráulic a, solar, en tre o tras . La bas e de 

esta aplicación se uti l iza en enco ntrar la velocidad del viento en intervalos d e tiempos 

 pequeños e intervalos muy pequeños, es decir en Δt de un a ho ra (int ervalo s pequeños ) y 

de min utos (intervalos muy p equeños). Se han hec ho m uch os estu dio acerc a del 

com portamiento del viento, ya que es de vi ta l importancia para el manejo de las turbinas 

en estas centrales, para dism inuir el voltaje y frecuencia en la maquina. El ob jet ivo de 

este algoritm o además d el con trol de las turbin as d e viento en lo s regímen es 

operacionales es el minim izar los efectos en los sistemas de poder m ientras se opt im iza 

la pro du cc ión de en ergía, tamb ién s e debe m inim izar los cam bio s de 

con exión/desco nexión de lo s generado res, para obtener tiemp os estándares d e 

producción. 

Este estudio se puede llevar por dos formas: 

1. Predicción del clima por agencias meteorológicas 2. Redes artificiales, modelos estadísticos 

Se ha desarrollado un nuevo modelo para la predicción de la velocidad del viento a muy corto plazo ANN,utilizando la cadena de marcok (MC) por sus siglas en ingles, y regresión lineal. El modelo propuesto

utiliza ANN para la predicción de la velocidad principal del viento. Entonces, MC de segundo orden seaplica para calcular la matriz de probabilidades de transición (TPM, por sus siglas en ingles) de losvalores previstos. Finalmente, la regresión lineal entre las predicciones primarias y los valores deprobabilidad obtenidas por el MC se utilizan hacia la predicción final. Estos valores se utilizan paramodificar los valores previstos en el modelo de datos del viento a largo plazo.Para más información, lesrecomiendo leer el siguiente articulo

science.pdf  

  Details   Download  919 KB

EJEMPLOS 

1. Ejemplo : Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar cadasemana. Sean D1, D2, … las demandas de esta cámara durante la primera, segunda, … , semana,

respectivamente. Se supone que las Di son variables aleatorias independientes e idénticamentedistribuidas que tienen una distribución de probabilidad conocida. Sea X0 el número de cámaras que se

tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semanauno, X2 el número de cámaras al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la

Page 39: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 39/51

noche la tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda haceun pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política ( s,S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor que s =1 (no haycámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la orden (si se cuenta con una omás cámaras en el almacén, no se hace el pedido). Se supone que las ventas se pierden cuando lademanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso estocástico de la forma que

se acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que representan elnúmero posible de cámaras en inventario al final de la semana.  

Observe que {Xi}, en donde Xi es el número de cámaras en el almacén al final de la semana t ( antes derecibir el pedido }), es una cadena de Markov. Se verá ahora cómo obtener las probabilidades detransición (de un paso), es decir, los elementos de la matriz de transición ( de un paso).  

Suponiendo que cada Dt tiene una distribución Poisson con parámetro . 

Para obtener es necesario evaluar . Si , Entonces . Por lo tanto, significa que la demanda durante lasemana fue de tres o más cámaras. Así, , la probabilidad de que una variable aleatoria Poisson conparámetro tome el valor de 3 o más; y se puede obtener de una manera parecida. Si , entonces . Para

obtener , la demanda durante la semana debe ser 1 o más. Por esto, . Para encontrar , observe que si .En consecuencia, si , entonces la demanda durante la semana tiene que ser exactamente 1. por ende, .Los elementos restantes se obtienen en forma similar, lo que lleva a la siguiente a la siguiente matriz detransición ( de un paso): 

Más y Más Aplicaciones De Las Cadenas De Markov 

¿Crees que los ingenieros industriales son los que aplican elconocimiento de las cadenas de markov únicamente? 

Si pensaste que solo los ingenieros industriales son los queaplican las cadenas de markov en su campo laboral, estas errado

ya que las cadenas de markov tiene múltiples aplicaciones comolas que vienen a contuniacion: 

Física: Las cadenas de Markov son usadas en muchos problemasde la termodinámica y la física estadística. Ejemplos importantes sepueden encontrar enla Cadenade Ehrenfest o el modelo de difusiónde Laplace.

Meteorología: Si consideramos el clima de una región a través dedistintos días, es claro que el estado actual solo depende del últimoestado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov para formular modelos climatológicos básicos.Modelos epidemiológicos Una importante aplicación de las cadenasde Markov se encuentra en el proceso Galton-Watson. Éste es unproceso de ramificación que se puede usar, entre otras cosas, paramodelar el desarrollo de una epidemiaInternet: El pagerank de una página web (usado por Google en susmotores de búsqueda) se define a través de una cadena de Markov,

donde la posición que tendrá una página en el buscador será

Page 40: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 40/51

determinada por su peso en la distribución estacionaria de lacadena.Simulación: Las cadenas de Markov son utilizadas para proveer unasolución analítica a ciertos problemas de simulación tales como elModelo M/M/1.Juegos de azar: Son muchos los juegos de azar que se puedenmodelar a través de una cadena de Markov. El modelo de la ruinadel jugador, que establece la probabilidad de que una persona queapuesta en un juego de azar finalmente termine sin dinero, es unade las aplicaciones de las cadenas de Markov en este rubro.Economía y Finanzas: Las cadenas de Markov se pueden utilizar enmodelos simples de valuación de opciones para determinar cuándoexiste oportunidad de arbitraje, así como en el modelo de colapsosde una bolsa de valores o para determinar la volatilidad de precios.En los negocios, las cadenas de Márkov se han utilizado paraanalizar los patrones de compra de los deudores morosos, paraplanear las necesidades de personal y para analizar el reemplazo deequipo.Música; Diversos algoritmos de composición musical usan cadenasde Markov, por ejemplo el software Csound o Max

Probabilidad de transición estacionaria de n pasos. 

Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular estas probabilidades de

transición de n pasos : 

Estas ecuaciones simplemente señalan que al ir de un estado i al estado j en n pasos, el proceso estaráen algún estado k después de exactamente m ( menor que n) pasos. Así,Es solo las probabilidadcondicional de que, si se comienza en el estado i, el proceso vaya al estado k despues de m pasos ydespués al estado j en n- m pasos. 

Los casos especiales de m=1 y m=n-1 conducen a las expresiones  

Para toda i, j, y n de lo cual resulta que las probabilidades de transición de n pasos se pueden obtener apartir de las probabilidades de transición de un paso de manera recursiva. Para n=2, estas expresiones sevuelven : 

Note que las son los elementos de la matriz P(2) , pero también debe de observarse que estos elementos,se obtienen multiplicando la matriz de transición de un paso por sí misma; esto es , P(2) = P * P = P2 .  

En términos más generales, se concluye que la matriz de probabilidades de transición de n pasos sepuede obtener de la expresión : P(n) = P * P …. P = Pn = PPn−1 = Pn-1 P. 

Entonces, la matriz de probabilidades de transición de n pasos se puede obtener calculando la n-ésimapotencia de la matriz de transición de un paso. Para valores no muy grandes de n, la matriz de transición

Page 41: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 41/51

de n pasos se puede calcular en la forma que se acaba de describir, pero cuando n es grande, talescálculos resultan tediosos y, más aún, los errores de redondeo pueden causar inexactitudes.  

1 Ejemplo : 

Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar cadasemana. Sean D1, D2, … las demandas de esta cámara durante la primera, segunda, … , semana,

respectivamente. Se supone que las Di son variables aleatorias independientes e idénticamentedistribuidas que tienen una distribución de probabilidad conocida. Sea X0 el número de cámaras que setiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semanauno, X2 el número de cámaras al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en lanoche la tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda haceun pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política ( s,S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor que s =1 (no haycámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la orden (si se cuenta con una omás cámaras en el almacén, no se hace el pedido). Se supone que las ventas se pierden cuando lademanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso estocástico de la forma quese acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que representan elnúmero posible de cámaras en inventario al final de la semana.  

 Así, dado que tiene una cámara al final de una semana, la probabilidad de que no haya cámaras eninventario dos semanas después es 0.283; es decir, De igual manera, dado que se tienen dos cámaras alfinal de una semana, la probabilidad de que haya tres cámaras en el almacén dos semanas después es0.097; esto es, La matriz de transición de cuatro pasos también se puede obtener de la siguiente manera :  

P(4) = P4 = P(2) * P(2) 

 Así, dado que queda una cámara al final de una semana, 0.282 es la probabilidad de que no hayacámaras en inventario 4 semanas más tarde; es decir, De igual manera, dado que quedan dos cámarasen el almacén final de una semana, se tiene una probabilidad de 0.171 de que haya tres cámaras en el

almacén 4 semanas después; esto es,Probabilidades de transición estacionaria de estados estables.  

Teorema 

Sea P la matriz de transición de una cadena de M estados . Existe entonces un vector tal que Seestablece que para cualquier estado inicial i , . El vector a menudo se llama distribución de estado estable,o también distribución de equilibrio para la cadena de Markov. Para encontrar la distribución deprobabilidades de estacionario para una cadena dada cuya matriz de transición es P, según el teorema,para n grande y para toda i , (1) 

Como Pij (n + 1) = ( renglón i de Pn )(columna j de P), podemos escribir  

(2) 

Ejemplo : Suponga que toda la industria de refrescos produce dos colas. Cuando una persona ha comprado la cola1, hay una probabilidad de 90 % de que su siguiente compra se de cola 1. Si una persona compró cola 2,hay un 80 % de probabilidades que su próxima compra sea de cola 2.  

Entonces : 

 Al reemplazar la segunda ecuación por la condición , 

obtenemos el sistema 

 Al despejar resulta que Por lo tanto, después de largo tiempo, hay probabilidad 2/3 de que una persona

Page 42: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 42/51

dada compre cola 1 y 1/3 de probabilidad de que una persona compre cola 2.  

Tiempos de primer paso. 

Con frecuencia es conveniente poder hacer afirmaciones en términos de probabilidades sobre el númerode transiciones que hace el proceso al ir de un estado i a un estado j por primera vez . este lapso se llama

tiempos de primer paso al ir del estado i al estado j. cuando J=i, esta tiempo de primer paso es justo elnúmero de transiciones hasta que el proceso regresa al estado inicial i. En este caso, el tiempo de primer paso se llama tiempo de recurrencia para el estado i.  

Para ilustrar estas definiciones, reconsidérese el ejemplo siguiente : 

Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar cadasemana. Sean D1, D2, … las demandas de esta cámara durante la primera, segunda, … , semana,

respectivamente. Se supone que las Di son variables aleatorias independientes e idénticamentedistribuidas que tienen una distribución de probabilidad conocida. Sea X0 el número de cámaras que setiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semanauno, X2 el número de cámaras al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la

noche la tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda haceun pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política ( s,S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor que s =1 (no haycámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la orden (si se cuenta con una omás cámaras en el almacén, no se hace el pedido). Se supone que las ventas se pierden cuando lademanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso estocástico de la forma quese acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que representan elnúmero posible de cámaras en inventario al final de la semana.  

Donde Xt es el número de cámaras en inventario al final de la semana t y se comienza con , Suponga queocurrió lo siguiente: 

En este caso, el tiempo de primer paso para ir al estado 3 al estado 1 es dde 2 semanas, el tiempo deprimer paso para ir del estado 3 al estado 0 es de 3 semanas y el tiempo de recurrencia del estado 3 esde 4 semanas. 

En general, los tiempos de primer paso son variables aleatorias y, por lo tanto, tienen una distribución deprobabilidad asociada a ellos. Estas distribuciones de probabilidad dependen de las probabilidades detransición del proceso. En particular, denota la probabilidad de que el tiempo de primer paso del estado ial j sea igual a n. Se puede demostrar que estas probabilidades satisfacen las siguientes relacionesrecursivas: 

Entonces se puede calcular la probabilidad de un tiempo de primer paso del estado i al j en n pasos, demanera recursiva, a partir de las probabilidades de transición de un paso. En el ejemplo, la distribución deprobabilidad de los tiempos de primer paso del estado 3 al estado 0 se obtiene como sigue:  

Para i y j fijos, las son números no negativos tales que  

Esta suma puede ser menor que 1, lo que significa que un proceso que el iniciar se encuentra en elestado i puede no llegar nunca al estado j . Cuando la suma es igual a 1, las pueden considerarse comouna distribución de probabilidad para la variable aleatoria, el tiempo de primer paso.  

Para obtener el tiempo esperado de primer paso del estado i al estado j. Sea , que se define como:  

entonces satisface, de manera única, la ecuación: 

Cuando i=j, se llama tiempo esperado de recurrencia.  Al aplicarlo al ejemplo del inventario, estas ecuaciones se pueden usar para calcular el tiempo esperadohasta que ya no se tengan cámaras en el almacén, suponiendo que el proceso inicia cuando se tienen

Page 43: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 43/51

tres cámaras; es decir, se puede obtener el tiempo esperado de primer paso . Como todos los estadosson recurrentes, el sistema de ecuaciones conduce a las expresiones  

La solución simultánea de este sistema es 

De manera que el tiempo esperado hasta que la tienda se queda sin cámaras es de 3.50 semanas.  

Caso de Aplicación. 

 Aplicación a la administración : Planeación de Personal. 

El anális de transición puede ser útil al planear satisfacer las necesidades de personal. Muchas firmasemplean trabajadores de diferentes niveles de clasificación dentro de la misma categoría de trabajo. Estoes común para personal de confianza, oficinistas, obreros calificados, no calificados y personalprofesional. La firma debe tener el número de empleados en cada nivel de clasificación para proporcionar la oportunidad de promoción adecuada, cumplir con las habilidades necesarias para el trabajo y controlar la nómina. Una planeación de personal a largo plazo apropiada requiere que se considere el movimientode personas tanto hacia arriba en el escalafón de clasificación como hacia afuera de la organización. El

análisis de Markov puede ayudar en este esfuerzo de planeación. 

El movimiento de personal a otras clasificaciones puede considerarse como una cadena de Markov. Sesupone que hay tres clasificaciones; el grado 1 es la más baja. Además, los descensos se consideranraros y se omiten. El estado “salen” es absorbente, el cual incluye renuncias, ceses, despidos y muertes.

Por supuesto, todos los empleados finalmente alcanzan este estado. 

Las transiciones del grado 1 al grado 2 y del grado 2 al grado 3 representan promociones. Comotransiciones de probabilidad, están controladas por la firma, puede establecerse el nivel que la firmadetermine que es necesario para cumplir sus objetivos. Como ejemplo, supóngase que la firma tiene eneste momento 30 empleados del 3, 90 empleados del grado 2 y 300 empleados del grado 1 y que deseamantener este nivel de empleados durante el próximo año. Por experiencia, se espera que salgan el 30 %

de los empleados de grado 1 al año, el 20 % de los empleados de grado 2 y el 10 % de aquellos queestán en el grado 3. Si la política es contratar sólo en los niveles de clasificación más bajos, cuántos sedeben contratar y cuántos se deben promover el siguiente año para mantener estables los niveles ?.  

Este problema puede resolverse sin el análisis de Markov, pero el modelo es útil para ayudar aconceptualizar el problema. Como se trata sólo de un ciclo, se usa el análisis de transición. El análisiscomienza con el graado más alto. No se hacen promociones pero el 10 %, o sea, 3, sale. Todos ellosdeben de reemplazarse por promociones del grado 2. En el nivel de clasificación, el 20 % sale y se debenpromover 3, con una pérdida de 21. Esto se debe compensar por promoción del grado 1. Al pasar algrado 1, el 30 % sale y 21 deben promoverse, lo cual una pérdida total de 111. Por tanto, el siguiente añose deben contratar 111 empleados del nivel 1. 

TIPOS DE MODELOS OCULTOS DE MARKOV· HMM DISCRETOS· HMM CONTINUOS· HMMSEMICONTINUOS HMM DiscretosEn éste, las observaciones son vectores de símbolos de un alfabeto finito con M+1elementos diferentes. HMM ContinuosSe asume que las distribuciones de los símbolos observables son densidades deprobabilidad definidas sobre espacio de observación continuos. HMM Semicontinuos  Al igual que los continuos, pero con la diferencia en que las funciones bases son comunes a todo losmodelos. 

Cadena de Markov

Page 44: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 44/51

En la teoría de la probabilidad, se conoce como cadena de Márkov a un tipo especial de proceso

estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento

inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último

evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento

anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar 

una moneda al aire o un dado.

Reciben su nombre del matemático ruso  Andréi Márkov (1856-1922), que las introdujo en 1907.1 

Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas

aplicaciones.

Índice

[mostrar ] 

Definición formal [editar ] 

En matemática se define como un proceso estocástico discreto que cumple con la propiedad de

Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente

resume toda la información relevante para describir en probabilidad su estado futuro.

Una cadena de Márkov es una secuencia X 1, X 2 , X 3,... de variables aleatorias. El rango de estas

variables, es llamado espacio estado, el valor de X n es el estado del proceso en el tiempo n. Si la

distribución de probabilidad condicional de X n+1 en estados pasados es una función de X n por sí sola,

entonces:

Donde x i es el estado del proceso en el instante i . La identidad mostrada es la propiedad de

Márkov. 

Notación útil [editar ] 

Cadenas homogéneas y no homogéneas [editar ] 

  Una cadena de Márkov se dice homogénea si la probabilidad de ir del estado i al estado j

en un paso no depende del tiempo en el que se encuentra la cadena, esto es:

para todo n y para cualquier 

i, j.

Si para alguna pareja de estados y para algún tiempo n la propiedad antes mencionada no

se cumple diremos que la cadena de Márkov es no homogénea.

Probabilidades de transición y matriz de transición [editar ] 

  La probabilidad de ir del estado i al estado j en n unidades de tiempo es

Page 45: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 45/51

,

en la probabilidad de transición en un paso se omite el superíndice de modo que

queda

  Un hecho importante es que las probabilidades de transición en n pasos

satisfacen la ecuación de Chapman-Kolmogórov, esto es, para cualquier k tal

que 0 < k < n se cumple que

donde E denota el espacio de estados.

  Cuando la cadena de Márkov es homogénea, muchas de sus

propiedades útiles se pueden obtener a través de su matriz de transición,

definida entrada a entrada como

esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en

un paso.

Del mismo modo se puede obtener la matriz de transición en n pasos como:

, donde .Vector de probabilidad invariante [editar ] 

  Se define la distribución inicial .

  Diremos que un vector de probabilidad (finito o infinito numerable) es

invariante para una cadena de Márkov si

donde P denota la matriz de transición de la cadena de Márkov. Al vector 

de probabilidad invariante también se le llama distribución

estacionaria o distribución de equilibrio.

Clases de comunicación [editar ] 

  Para dos estados i , j en el espacio de estados E, diremos que de i se

accede a j (y se denotará ) si

para algún n,

si y entonces diremos que i  comunica con j y se

denotará i↔j. 

Page 46: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 46/51

La propiedad "↔" es una relación de equivalencia. Esta relación

induce una partición en el espacio de estados. A estas clases de

equivalencia las llamaremos clases de comunicación.

Dado un estado x , denotaremos a su clase de comunicacióncomo C(x).

  Diremos que un subconjunto C del espacio de estados (al que

denotaremos E) es cerrado si ningún estado de E-C puede ser 

accedido desde un estado de C, es decir, si para

todo x∈C, para todo y∈E-C y para todo natural m>0.

Tiempos de entrada [editar ] 

Si , definimos el primer tiempo de entrada a C comola variable aleatoria 

esto es, denota la primera vez que la cadena entra al conjunto

de estados C.

Recurrencia [editar ] 

En una cadena de Márkov con espacio de estados E, si x ∈E se

define

y

diremos que:

  x es estado recurrente si .

  x es transitorio si

  x es absorbente si

  Una clase de comunicación es clase recurrente si todos sus

estados son recurrentes.

Sea , si x∈Ediremos que:

  x es cero-recurrente si

  x es positivo-recurrente si

El real se interpreta como el tiempo promedio de recurrencia.

Periodicidad [editar ] 

Page 47: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 47/51

  El periodo de un estado x∈E se define como:

donde denota el máximo común divisor . 

  Si d(x)=1 diremos que x es un estado aperiódico.

  Una cadena de Márkov se dice aperiódica si todos sus

estados son aperiódicos.

Tipos de cadenas de Márkov [editar ] 

Cadenas irreducibles [editar ] 

Una cadena de Márkov se dice irreducible si se cumple

cualquiera de las siguientes condiciones (equivalentes entre sí):

1. Desde cualquier estado de E se puede acceder a

cualquier otro.

2. Todos los estados se comunican entre sí.

3. C(x)=E para algún x∈E.

4. C(x)=E para todo x∈E.

5. El único conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras

absorbentes son ejemplos de cadenas de Márkov irreducibles.

Cadenas positivo-recurrentes [editar ] 

Una cadena de Márkov se dice positivo-recurrente si todos sus

estados son positivo-recurrentes. Si la cadena es además

irreducible es posible demostrar que existe un único vector de

probabilidad invariante y está dado por:

Cadenas regulares [editar ] 

Una cadena de Márkov se

dice regular (también primitiva o ergódica) si existe alguna

potencia positiva de la matriz de transición cuyas entradas

sean todas estrictamente mayores que cero.

Cuando el espacio de estados E es finito, si P denota la

matriz de transición de la cadena se tiene que:

Page 48: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 48/51

donde W es una matriz con todos sus renglones

iguales a un mismo vector de probabilidad w, que

resulta ser el vector de probabilidad invariante de la

cadena. En el caso de cadenas regulares, éste vector 

invariante es único.

Cadenas absorbentes [editar ] 

Una cadena de Márkov con espacio de estados finito

se dice absorbente si se cumplen las dos condiciones

siguientes:

1. La cadena tiene al menos un estado

absorbente.

2. De cualquier estado no absorbente se accede

a algún estado absorbente.

Si denotamos como A al conjunto de todos los estados

absorbentes y a su complemento como D, tenemos los

siguientes resultados:

  Su matriz de transición siempre se puede llevar a

una de la forma

donde la submatriz Q corresponde a los estados

del conjunto D, I es la matriz identidad, 0 es la

matriz nula y R alguna submatriz.

  , esto es, no

importa en donde se encuentre la cadena,

eventualmente terminará en un estado

absorbente.

Cadenas de Márkov en tiempocontinuo [editar ] 

Si en lugar de considerar una secuencia

discreta X 1, X 2 ,..., X i ,.. con i indexado en el

conjunto de números naturales, se consideran

las variables aleatorias X t con t que varía en un

intervalo continuo del conjunto de números

Page 49: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 49/51

reales, tendremos una cadena en tiempo continuo.

Para este tipo de cadenas en tiempo continuo

la propiedad de Márkov se expresa de la siguiente

manera:

tal

que

Para una cadena de Márkov continua con un

número finito de estados puede definirse una

matriz estocástica dada por:

La cadena se denomina homogénea

si . Para una

cadena de Márkov en tiempo continuo homogénea

y con un número finito de estados puede definirse

el llamado generador infinitesimal como:2 

Y puede demostrarse que la matriz estocástica

viene dada por:

 Aplicaciones [editar ] 

Física [editar ] 

Las cadenas de Márkov son usadas en muchos

problemas de la termodinámica y la física

estadística. Ejemplos importantes se pueden

encontrar en la Cadena de Ehrenfest o el modelo

de difusión de Laplace. 

Meteorología [editar ] 

Si consideramos el clima de una región a través

de distintos días, es claro que el estado actual

solo depende del último estado y no de toda la

historia en sí, de modo que se pueden usar 

Page 50: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 50/51

cadenas de Márkov para formular modelos

climatológicos básicos.

Modelos epidemiológicos [editar ] 

Una importante aplicación de las cadenas deMárkov se encuentra en el proceso Galton-

Watson. Éste es un proceso de ramificación que

se puede usar, entre otras cosas, para modelar el

desarrollo de una epidemia (véase modelaje

matemático de epidemias).

Internet [editar ] 

El pagerank de una página web (usado

por  Google en sus motores de búsqueda) se

define a través de una cadena de Márkov, donde

la posición que tendrá una página en el buscador 

será determinada por su peso en la distribución

estacionaria de la cadena.

Simulación [editar ] 

Las cadenas de Márkov son utilizadas para

proveer una solución analítica a ciertos problemas

de simulación tales como el Modelo M/M/1.3 

Juegos de azar [editar ] 

Son muchos los juegos de azar que se pueden

modelar a través de una cadena de Márkov. El

modelo de la ruina del jugador , que establece la

probabilidad de que una persona que apuesta en

un juego de azar finalmente termine sin dinero, es

una de las aplicaciones de las cadenas de Márkoven este rubro.

Economía y Finanzas [editar ] 

Las cadenas de Márkov se pueden utilizar en

modelos simples de valuación de opciones para

determinar cuándo existe oportunidad dearbitraje, 

así como en el modelo de colapsos de una bolsa

de valores o para determinar la volatilidad de

precios. En los negocios, las cadenas de Márkov

Page 51: Cadenas Markov

7/16/2019 Cadenas Markov

http://slidepdf.com/reader/full/cadenas-markov-5633883fd7b2a 51/51

se han utilizado para analizar los patrones de

compra de los deudores morosos, para planear 

las necesidades depersonal y para analizar el

reemplazo de equipo.

Genética [editar ] 

Se emplean cadenas de Márkov en teoría de

genética de poblaciones, para describir el cambio

de frecuencias génicas en una población pequeña

con generaciones discretas, sometida a deriva

genética. Ha sido empleada en la construcción del

modelo de difusión de Motō Kimura. 

Música [editar ] Diversos algoritmos de composición musical usan

cadenas de Márkov, por ejemplo el

software Csound o Max