Monografia Cadenas de Markov

42
INTRODUCCIÓN Las cadenas de Markov están destinadas a una clase de modelos de probabilidad que son útiles en una amplia variedad de ciencias. Las cadenas de Markov han encontrado aplicaciones en la biología, la física, la demografía, la economía y, lo que es más importante para nuestros propósitos, la administración. La ciencia administrativa ha desarrollado métodos de análisis y herramientas cuantitativas para la toma de decisiones objetivas. Un factor importante que se debe considerar al seleccionar una herramienta de toma de decisiones es su grado de confiabilidad, ya que así la incertidumbre y el riesgo resultan menores será mejor. Una relación de algunos elementos de apoyo cuantitativo en la toma de decisiones gerenciales es el análisis de markov. Las cadenas de Markov se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios.

Transcript of Monografia Cadenas de Markov

Page 1: Monografia Cadenas de Markov

INTRODUCCIÓN

Las cadenas de Markov están destinadas a una clase de modelos de

probabilidad que son útiles en una amplia variedad de ciencias. Las cadenas

de Markov han encontrado aplicaciones en la biología, la física, la demografía,

la economía y, lo que es más importante para nuestros propósitos, la

administración.

La ciencia administrativa ha desarrollado métodos de análisis y herramientas

cuantitativas para la toma de decisiones objetivas. Un factor importante que se

debe considerar al seleccionar una herramienta de toma de decisiones es su

grado de confiabilidad, ya que así la incertidumbre y el riesgo resultan menores

será mejor.

Una relación de algunos elementos de apoyo cuantitativo en la toma de

decisiones gerenciales es el análisis de markov.

Las cadenas de Markov se pueden utilizar en modelos simples de valuación de

opciones para determinar cuándo existe oportunidad de arbitraje, así como en

el modelo de colapsos de una bolsa de valores o para determinar la volatilidad

de precios.

Page 2: Monografia Cadenas de Markov

DEDICATORIA

A Dios, mi escudo y fortaleza.

A nuestros padres,

por su gran ejemplo y esfuerzo.

A mi asesor, Lino Fernández,

por su amistad y oportuno consejo.

Page 3: Monografia Cadenas de Markov

ORIGEN DE LA TEORÍA MARKOVIANA.

Esta teoría debe su nombre a Andrei Andreyevich Markov quien nació en San

Petersburgo, Rusia, el 14 de Junio de 1856. Estudió matemáticas en la

Universidad de San Petersburgo y se graduó en el

año 1878. En sus inicios como docente, alrededor

del año 1886, focalizó su trabajo en análisis y

teoría del número, fracciones continuas, límite de

integrales, teoría de aproximación y la serie de

convergencias.

También estuvo interesado en la poesía e hizo

estudios de los diversos estilos poéticos.

Estudió, entre otros muchos aspectos, las construcciones lingüísticas a partir

del cálculo matemático (1913). Así, por ejemplo, analizó la producción literaria

del gran poeta ruso Puschkin, llamada “Eugene Onieguin”, y dedujo que las

letras del alfabeto cirílico, como las de cualquier otro alfabeto, iban apareciendo

relacionadas con las que las precedían en la escritura. La nueva letra está

determinada por la anterior, pero es independiente de la manera en la que

aparece respecto de las anteriores.

Markov es recordado por su estudio de cadenas secuenciales, que consisten

en variables al azar, en las que la variable futura es predeterminada por la

preexistente, pero independiente de la manera que ésta se generó de sus

precursores. Es decir, se trata de un sistema que sufre a lo largo del tiempo

cambios de estado o transiciones aleatorias y las probabilidades que describen

la forma en que el proceso evolucionará en el futuro, son independientes de los

eventos ocurridos en el pasado. El sistema no está desprovisto de memoria en

su totalidad, sólo guarda información del recuerdo más reciente de su pasado.

Es muy importante comentar que su estudio no estuvo basado en un simple

análisis estadístico, sino que intentó aplicarlo a la generación de textos

literarios.

Las cadenas de Markov se han aplicado en áreas diversas, como educación,

comercialización, servicios de salud, finanzas, contabilidad y producción, tras

los aportes de Norbert Wiener (1923) y Andrei Kolmogorov (1930).

Page 4: Monografia Cadenas de Markov

1. CONCEPTO DE CADENA DE MARKOV.

Una Cadena de Markov es una serie de acontecimientos, en los que la

probabilidad de que ocurra uno depende del inmediatamente anterior.

Los conceptos necesarios para describir una Cadena de Markov son los

siguientes:

a) Estados (Ei, i=1,…, n). Son aquellas opciones entre las que pueden

elegir los consumidores. Para que los estados formen parte del mismo

mercado es necesario que todos los consumidores de dicho mercado

tenga acceso a todos los estados en igualdad de condiciones.

b) Cuota de mercado o Estado de probabilidad (Pi, i=1,.., n). Es la

probabilidad de consumir el Estado i en el momento n. Siempre estará

situado en 0 ≤ Pi ≤ 1. Se calcula con la siguiente fórmula:

Pi = (Número de consumidores del Estado i en el momento n)

(Número de consumidores totales)

c) Vector estado (Pn). Es un vector fila formado por las cuotas de

mercado del momento n. Los elementos de este vector suman

siempre 1.

Pn = (P1, P2, P3,…, Pi)

d) Probabilidad de cambio (Pij i=1,…, n y j=1,…, n). Es la probabilidad

de que un consumidor que esté en el Estado i en el momento n pase

al Estado j en el momento n+1. Siempre estará situado en 0 ≤ Pij ≤ 1.

Se calcula con la siguiente fórmula:

Pij = (Número de consumidores del Estado i en el momento n que se

pasan al Estado j en el momento n+1) / (Número de consumidores

totales del Estado i en el momento n)

e) Matriz de transición (Mt). Es la matriz formada por las distintas

probabilidades de cambio. Sus filas siempre suman 1.

Page 5: Monografia Cadenas de Markov

f) Proceso estocástico. un conjunto de variables aleatorias que

evolucionan en función normalmente del tiempo.

g) Vector Equilibrio o Vector de Estabilidad. Es aquel que se obtiene

a largo plazo si la matriz de transición cumple la característica del

ergodismo. Es un vector estable que nunca se modificará salvo que

cambien las condiciones de mercado.

h) Matriz ergódica. Una matriz es ergódica si su primer auto valor es

uno y el resto de los autos valores menores que uno.

i) Estado absorbente. Es aquél estado cuya probabilidad de pasar de

uno a otro es nula. Por ejemplo, si el primer estado fuera absorbente,

la matriz de transición quedaría así:

2. FORMULACIÓN DE LAS CADENAS DE MARKOV.

Page 6: Monografia Cadenas de Markov

2.1. Tipos de cadenas de Markov.

a) Cadenas irreducibles.-

Una cadena de Markov se dice irreducible si se cumple cualquiera

de las siguientes condiciones (equivalentes entre sí):

Desde cualquier estado de E se puede acceder a cualquier

otro.

Todos los estados se comunican entre sí.

C(x)=E para algún x∈E.

C(x)=E para todo x∈E.

El único conjunto cerrado es el total.

b) Cadenas positivo-recurrentes.-

Una cadena de Markov se dice positivo-recurrente si todos sus

estados son positivo-recurrentes. Si la cadena es además

irreducible es posible demostrar que existe un único vector de

probabilidad invariante.

c) Cadenas regulares.-

Se dice regular (también primitiva o ergódica) si existe alguna

potencia positiva de la matriz de transición cuyas entradas sean

todas estrictamente mayores que cero.

d) Cadenas absorbentes.-

Una cadena de Markov con espacio de estados finito se dice

absorbente si se cumplen las dos condiciones siguientes:

1. La cadena tiene al menos un estado absorbente.

2. De cualquier estado no absorbente se accede a algún estado

absorbente.

Si denotamos como A al conjunto de todos los estados

absorbentes y a su complemento como D, tenemos los siguientes

resultados:

Su matriz de transición siempre se puede llevar a una de la forma:

Page 7: Monografia Cadenas de Markov

2.2. Formato de la matriz de transiciones:

2.3. Como realizar el diagrama de transición.

Ejemplo: la ruina del jugador

A

Page 8: Monografia Cadenas de Markov

En el tiempo 0, tengo $2 en los tiempos 1,2… n participo en un juego

en el que apuesto $1 con la probabilidad P, gano el juego, y con

probabilidad 1-P, pierdo el juego. Mi objetivo es incrementar mi capital

a $4, y cuando lo logre se termina el juego. El juego también se termina

si mi capital se reduce a $0.

Encuentre la matriz de transición.

Desarrolle el diagrama de transición.

3. PROCESOS ESTOCÁSTICOS.

Algunas veces nos encontramos interesados en cómo cambia una variable

aleatoria con el tiempo. Por ejemplo, es posible que se desee saber cómo

evoluciona el precio de una parte de las acciones o la participación en el

mercado de una empresa. El estudio de cómo una variable aleatoria cambia

a través del tiempo incluyen los procesos estocásticos.

- Definición: Un proceso estocástico es una sucesión de variables

aleatorias ordenadas en el tiempo (en el caso de series temporales).

- Serie Temporal: es una realización del proceso estadístico, es decir, es

una observación de T variables aleatorias ordenadas en el tiempo.

Suponga que se observan algunas características de un sistema en puntos

discretos en el tiempo (identificados con 0,1,2,….). Sea Xt el valor de la

Page 9: Monografia Cadenas de Markov

característica del sistema en el tiempo t. En la mayoría de las situaciones, Xt

no se conoce con certeza antes del tiempo t y se podría considerar como

una variable aleatoria.

Un proceso estocástico discreto en el tiempo es simplemente una

descripción de la relación entre las variables aleatorias X0, X1, X2….

Ejemplos de procesos estocásticos:

- Serie mensual de ventas de un producto.

- Estado de una máquina al final de cada semana (funciona/averiada).

- Nº de clientes esperando en una cola cada 30 segundos.

- Marca de detergente que compra un consumidor cada vez que hace la

compra. Se supone que existen 7 marcas diferentes.

-  Nº de unidades en almacén al finalizar la semana.

Ejemplo 1:

Se dispone de 4 módulos de atención que se van activando

secuencialmente a medida que la cantidad de usuarios que deben ser

atendidos aumenta.

Cada módulo tiene un máximo de usuarios a los que puede entregar

servicio.

Cuando un módulo está completamente utilizado, entra en servicio el

siguiente módulo.

Si un módulo deja de ser utilizado, el módulo se desactiva

temporalmente, quedando en servicio los módulos anteriores.

La definición de estados para el ejemplo será:

Central Telefónica

1 2 3 4

Page 10: Monografia Cadenas de Markov

Estado 1: El módulo 1 está siendo utilizado.

Estado 2: El módulo 2 está siendo utilizado.

Estado 3: El módulo 3 está siendo utilizado.

Estado 4: El módulo 4 está siendo utilizado.

Ejemplo 2:

Repetir 1º año: 2%

Pasar a 2º año: 97%

Retirarse al final del 1º año: 1%

Repetir 2º año: 3%

Pasar a 3º año: 95%

Retirarse al final del 2º año: 2%

Repetir 3º año: 4%

Pasar a 4º año: 92%

Retirarse al final del 3º año: 2%

Repetir 4º año: 1%

Egresar: 96%

Retirarse al final del 4º año: 3%

Definición de estados:

Estado 1: Estar en primer año.

Estado 2: Estar en segundo año.

Estado 3: Estar en tercer año.

Estado 4: Estar en cuarto año.

Estado 5: Egresar del establecimiento.

Estado 6: Retirarse del establecimiento.

Ejemplo 3:

El clima de Centerville puede cambiar con rapidez de un día a otros. Sin

embrago, las posibilidades de tener clima seco (sin lluvia) mañana es de

alguna forma mayor si hoy esta seco, es decir, no llueve. Esta

Page 11: Monografia Cadenas de Markov

probabilidades no cambian si se considera la información acerca del clima

en los días anteriores a hoy.

La evolución del clima día tras día en Centerville es un proceso estocástico.

Si se comienza en algún día inicial (etiquetado como el día 0), el clima se

observa cada día t puede ser:

Estado 0= El día es seco

Estado 1= El día t es lluvioso

Así, para = 0, 1, 2, …, la variable aleatoria Xt

Toma los valores,

0 sí día t es seco

Xt

1 sí día t es lluvioso

El proceso estocástico {Xt}= {X0, X1, X2….} proporciona una representación

matemática de la forma como evaluación el clima de Centerville a través del

tiempo.

4. PROPIEDAD MARKOVIANA DE PRIMER ORDEN.

Nos dice que el futuro depende únicamente del valor del estado del presente

y es independiente del pasado.

Page 12: Monografia Cadenas de Markov

Como son probabilidades condicionales deben satisfacer:

5. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE UN SOLO PASO.

Page 13: Monografia Cadenas de Markov

Una matriz de transición P se dice que es regular si para algún entero

positivo k, la matriz k P no tiene elementos iguales a cero. Si P es una matriz

de transición regular, entonces sin importar la matriz de estado inicial, las

matrices de estado sucesivas se aproximan a alguna matriz de estado fija B

en donde B.P = B. La matriz B se denomina matriz estacionaria del sistema.

Ejemplo: Si la matriz de transición regular es

Por definición, la suma de las probabilidades p1+ p2 =1 y además B.P = B, o

sea:

De allí, resolviendo el sistema que queda planteado podemos calcular la

matriz estacionaria buscada.

Ejemplo:

Suponga que toda la industria de bebidas de cola produce solo 2. Dado que

una persona la ultima vez compro cola 1, hay 67% de probabilidades de que

Page 14: Monografia Cadenas de Markov

su siguiente compra se cola 1. Dado que la ultima compra de una persona

fue cola 2, hay un 33% de probabilidad de que su siguiente compra se cola

2.

Si una persona en la actualidad es comprador de cola 2, ¿cual es la

probabilidad de que compre cola 1 dos veces a partir de ahora?

 

Solución:

Vemos las compras de cada persona como una cadena de Markov con el

estado, en cualquier tiempo dado, el tipo de cola que compro la persona en

la ultima vez. Así, la compras de cada individuo puede representarse como

una cadena de Markov donde.

Estado 1= la persona compro cola del tipo 1 la ultima vez.

Estado 2= la persona compro cola del tipo 2 la ultima vez.

Si se define xn como el tipo de cola que una persona compra en su n-ésima

compra futura (compra actual de cola = x0) , entonces x0 ,x1... se podría

describir como la cadena de Markov con la siguiente matriz de transición:

Respondiendo a la pregunta se tiene una probabilidad del 67% de que el

comprador de cola 2 compre cola 1 dos veces a partir de ahora.

6. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE “N” PASOS.

Suponga que se está estudiando una cadena de Markov con una matriz de

probabilidad de transición conocida P. (puesto que las cadenas con las que

Page 15: Monografia Cadenas de Markov

se tratará son estacionarias, no nos molestaremos en marcar nuestras

cadenas de Markov como estacionarias). Una pregunta de interés es:

Si una cadena de Markov está en el estado i en el tiempo m, ¿cuál es la

probabilidad de que n periodos después la cadena esté en el estado j?

Puesto que se trata con una cadena de Markov estacionaria, esta

probabilidad es independiente de m, así que se podría escribir.

Donde se llama probabilidad del n-ésimo paso de una transición del

estado i al estado j.

Resulta claro que = Pu: Para determinar , observe que si el

sistema ahora está en el estado i, entonces para que el sistema termine en

el estado j dos periodos a partir de ahora, se debe ir del estado i a algún

estado k y luego del estado k al estado j (véase la figura 3). Este

razonamiento nos permite escribir

Usando la definición de P, la matriz de probabilidad de transición, se

reescribe la última ecuación como:

El lado derecho de (3) es sólo el producto escalar del renglón i de la matriz P

con la columna J de la matriz P. Por consiguiente, es el ij-ésimo

elemento de la matriz .

Al ampliar este razonamiento, se puede demostrar que para n > 1,

0( | ) ( | ) ( )n m m n ijP X j X i P X j X i P n

( )ijP n

(2)ijP

1

(2) probabilidad de transici n de i a k X probabilidad de transicion de k a jk s

ijk

P ó

1

( 2 )k s

i jk

P P ikP jk

(2)ijP2P

( ) emesimo elemento de P nijP n ij

Page 16: Monografia Cadenas de Markov

Por supuesto, para n = O, , así que se debe

escribir

EJEMPLO: BEBIDA

Suponga que toda la industria de bebidas produce solo 2 refrescos. Dado

que una persona la ultima vez compro refresco 1, hay 90% de

probabilidades de que su siguiente compra sea refresco 1. dado que la

ultima compra de una persona fue refresco 2, hay un 80% de probabilidades

de que su siguiente compra se refresco 2.

Si una persona en la actualidad es comprador de cola 2, ¿cuál es la

probabilidad de que compre cola 1 dos veces a partir de ahora?

0 0(0) ( | )ijP P X j X i

l si j = i.0 si j i

(0)ijP

Page 17: Monografia Cadenas de Markov

Si una persona en la actualidad es comprador de cola 1, ¿cuál es la

probabilidad de que compre cola 1 tres ocasiones a partir de ahora?

SOLUCION:

Vemos las compras de cada persona como una cadena de Markov con el

estado, en cualquier tiempo dado, del tipo de cola que compró la persona

en la última vez. Así, las compras de cada individuo pueden representarse

como una cadena de Markov de dos estados, donde

Estado 1= La persona compró cola del tipo 1 la última vez.

Estado 2= La persona compró cola del tipo 2 la última vez.

Si se define Xn como el tipo de cola que una persona compra en su n-

ésima compra futura (compra actual de cola = Xo), entonces X0, X1,… se

podría describir como la cadena de Markov con la siguiente matriz de

transición:

Ahora se pueden contestar las preguntas 1 y 2.

Se busca P(X2 = 1|X0 = 2) = p21(2) = elemento 2,1 de P 2:

Por consiguiente, P21(2) = .34. Esto significa que la probabilidad de que un

bebedor de cola 2 en el futuro compre dos veces cola l es .34. Mediante la

21

80.20.

10.90.

2

1RR

R

RP

66.34.

17.83.

80.20.

10.90.

80.20.

10.90.2P

Page 18: Monografia Cadenas de Markov

teoría de probabilidad básica, se podría obtener esta respuesta de una

manera distinta (véase la figura 4).

Observe que P21 (2) = (probabilidad de que la siguiente compra sea cola 1 y

la segunda compra sea cola 1) + (probabilidad de que la siguiente compra

sea cola 2 y la segunda compra sea cola1)

= P21P11 + P22P21= (.20)(.90) + (.80)(.20) = .34.

Ahora se busca P11(3) = elemento 11 de P 3 :

Por lo tanto, P11(3) = .781

Probabilidades de Estados Estables.

562.438.

219.781.

66.34.

17.83.

80.20.

10.90.)( 23 PPP

Page 19: Monografia Cadenas de Markov

Ahora analizaremos el concepto importante de probabilidades de estado

estable, que se puede usar para describir el comportamiento a largo plazo

de una cadena de Markov.

El resultado es vital para comprender las probabilidades de estado estable y

el comportamiento a largo plazo de las cadenas de Markov.

Sea P la matriz de transición de una cadena ergódica de estado estable.

Entonces existe un vector π = [π1 π2 … πs] tal que:

El vector π = [π1 π2 … πs] se llama distribución de estado estable, o

distribución de equilibrio, para la cadena de Marcov. Para una cadena

determinada con matriz de transición P, ¿cómo se puede hallar la

distribución de probabilidades de estado estable? A Partir del teorema 1, se

observa que y toda i.

π (m + n) = π(n) [P]m Lo cual define una relación de recurrencia, la cual

permite conocer la evolución del vector de probabilidad de estado en el

instante m, conociendo el vector de probabilidad inicial, hacienda n = 0

( 1) ( )ij ij jP n P n

Page 20: Monografia Cadenas de Markov

A medida que aumenta el número de instantes m, las matrices convergen a

un valor estable, independiente del vector de probabilidad inicial. Por lo

tanto, cuando el sistema llega a un estado j, la probabilidad en estado

estable llegara ser:

Entonces la ecuación quedaría de la siguiente manera.

Ya que con la ecuación anterior se tendrían un número infinito de soluciones

debido a que el rango de la matriz P siempre resulta ser menor o igual a s -

1. Para obtener valores únicos de las probabilidades de estado, observe que

para cualquier n y cualquier i.

EJEMPLO: anterior de los refrescos donde P:

Refresco 1 refresco 2

P = refresco 1 0.9 0.1

refresco 2 0.2 0.8

limm

j ijm

P

P

1 2( ) ( ) ... ( ) 1i i isP n P n P n

1jj

π1 π2 = π1 π20.9 0.1

0.2 0.8

Page 21: Monografia Cadenas de Markov

Se considera una señal con amplitud entre −2A y 2A, el cual solo puede

tomar valores múltiplos de A. En cualquier instante n, la señal puede, ya sea

quedarse en el mismo valor, aumentar A o disminuir A. Al asumir que los

cambios tienen igual probabilidad, determine:

La matriz de transición de estados.

La probabilidad de que en el segundo instante, la señal pase el estado −A

al estado A.

La probabilidad de estado de la señal en estado estable.

El diagrama de transición de estados que se ilustra en la siguiente figura,

determina el proceso de Markov donde:

Luego, la matriz de transición de estados es igual a:

Page 22: Monografia Cadenas de Markov

Para definir las probabilidades de transición para el segundo instante, se

tiene:

Luego P−A,A = 1/9 = 0.111. Nótese que dicha probabilidad puede hallarse

usando la matriz de transición de estado inicial P−A,A = P−A,0P0,A = 1/3*1/3

= 0.111. En estado estable se debe satisfacer el sistema de ecuaciones,

dado por 2.26, y eliminando el término π5:

Suponga que cada cliente realiza una compra de refresco durante cualquier

semana. Suponiendo que hay 100 mil clientes que consumen refresco. A la

compañía le cuesta 1 dólar producir un refresco y lo vende en 2 dólares. Por

Page 23: Monografia Cadenas de Markov

$500 mil al año, una empresa publicitaria garantiza disminuir de 10 a 5% la

fracción de clientes de refresco 1que cambian a refresco 2 después de una

compra. ¿Debe la compañía que fabrica refresco 1 contratar a la empresa

publicitaria?

En la actualidad, una fracción π1 = 2/3 de las compras de refresco 1. Cada

compra de refresco 1produce a la compañía una ganancia de 1 dólar.

Puesto que hay un total 52(100 000), compras de refresco al año, ganancia

de la compañía que produce refresco 1 es:

2/3(5 200 000) = $ 3´466,666

La compañía publicitaria esta ofreciendo cambiar la matriz P a

Para P, las ecuaciones de estado estable son:

Π1 = .95π1 + .20π2

Π2 = .05π1 + .80π2

Sustituyendo la ecuación por π1 + π2 = 1 y resolviendo, se obtiene π1 = .80

y π2 = .20. Ahora la ganancia anual de la compañia que produce refresco 1

será.

0.80 (5 200 000) – 500 000 = $ 3`660,000

Por lo tanto, la compañía que produce refresco 1 debe contratar a la agencia

de publicidad.

7. ESTADOS ABSORBENTES.

Refresco 1 refresco 2P = refresco 1 0.95 0.05

refresco 2 0.2 0.8

Page 24: Monografia Cadenas de Markov

Muchas aplicaciones interesantes de las cadenas de markov tienen que ver

con cadenas en las que algunos de los estados son absorbentes y el resto

son estados transitorios. Este tipo de cadena se llama cadena absorbente.

Considere una cadena de markov absorbente; si se comienza en un estado

transitorio, entonces finalmente se esta seguro de salir del estado transitorio

y terminar en uno de los estados absorbentes.

En este formato, los renglones y las columnas de P corresponden (en

orden) a los estados

Aquí I es una matriz identidad de m x m que refleja el hecho de que nunca

se puede dejar un estado absorbente: Q es una matriz de (s – m) x (s – m)

que representa estados transitorios; R es una matriz de (s – m) x m que

representa transiciones a estados absorbentes; 0 es una matriz de m x (s

– m) que consiste por completo en ceros. Esto refleja el echo de que es

imposible ir de un estado absorbente a un transitorio.

EJEMPLO: planificación de fuerza de trabajo.

El bufete jurídico de Mason y Burger emplea tres tipos de abogados:

principiantes, experimentados y asociados. Durante un año determinado,

hay una probabilidad .15 de que un abogado principiante sea promovido a

experimentado y una probabilidad .05 de que salga de la empresa. También,

hay una probabilidad .20 de que el abogado experimentado sea promovido

asocio y una probabilidad .10 de que salga de la empresa. La probabilidad

de que un asociado salga de la empresa es de .05

1. ¿Cuál es el tiempo promedio que un abogado principiante recién

contratado dure trabajando en la empresa?

2. ¿Cuál es la probabilidad de que un abogado principiante se convierta

en asociado?

3. ¿Cuál es el tiempo promedio que un asociado pasa en la empresa?

Matriz de probabilidades de transición:

principiante experimentado asociado sale como no

asociadosale como asociado

principiante 0.8 0.15 0 0.05 0

experimentado 0 0.7 0.2 0.1 0

asociado 0 0 0.95 0 0.05

sale como no asociado

0 0 0 1 0

sale como asociado

0 0 0 0 1

Page 25: Monografia Cadenas de Markov

Solución:

EJEMPLO: cuentas por cobrar

Suponga que una empresa asume que una cuenta es incobrable si se tiene

más de tres meses de atraso. Entonces al comienza de cada mes, cada

cuenta se puede clasificar en uno de los siguientes estados:

principiante experimentado asociado sale como no

asociadosale como asociado

principiante 0.8 0.15 0 0.05 0

experimentado 0 0.7 0.2 0.1 0

asociado 0 0 0.95 0 0.05

sale como no asociado

0 0 0 1 0

sale como asociado

0 0 0 0 1

0.8 0.15 0Q= 0 0.7 0.2

0 0 0.95

0.05 0R= 0.1 c0

0 0.05

0.2 -0.15 0I -Q = 0 0.3 -0.2

0 0 0.05

a1 a2t1 0.5 0.5

(I-Q)^-1 R= t2 0.33 0.66t3 0 1

Page 26: Monografia Cadenas de Markov

Estado 1 Cuentas nuevas.

Estado 2 El pago de la cuenta tiene un mes de atraso.

Estado 3 El pago de la cuenta tiene dos meses de atraso.

Estado 4 El pago de la cuenta tiene tres meses de atraso.

Estado 5 La cuenta ha sido pagada.

Estado 6 La deuda se borra como deuda incobrable.

Los datos se muestran en la siguiente cadena de markov

¿Cual es la probabilidad de que finalmente se cobre una cuenta nueva?

¿Cuál es la probabilidad de una cuenta de un mes de retraso en algún

momento sea una deuda incobrable?

Matriz de probabilidad de transición

Solución:

nueva 1 mes 2 meses 3 meses pagada incobrable

nueva 0 0.6 0 0 0.4 0

1 mes 0 0 0.5 0 0.5 0

2 meses 0 0 0 0.4 0.6 0

3 meses 0 0 0 0 0.7 0.3

pagada 0 0 0 0 1 0

deuda incobrable

0 0 0 0 0 1

0 0.6 0 00 0 0.5 0

Q= 0 0 0 0.40 0 0 0

0.4 00.5 0

R= 0.6 00.7 0.3

Page 27: Monografia Cadenas de Markov

Interpretación:

1. Así, finalmente de que se cobre una cuenta nueva es de = .964 el

96%.

2. Por consiguiente, la probabilidad de una cuenta con un mes de

retraso se convierta en una deuda incobrable es de = .06

8. LA CADENA DE MARKOV Y SU FUNCIÓN EMPRESARIAL.

En ocasiones resulta complicado determinar cual va a ser la evolución de

ciertos aspectos empresariales sujetos a variaciones constantes. Esto puede

dificultar la adecuación de esfuerzos económicos y de personal, entre otros.

Una manera diferente de controlar ciertos factores de la gestión de un

negocio es realizar aproximaciones o previsiones en base a la utilización de

cadenas de Markov. No es un método totalmente exacto pero si útil para

previsiones a largo o muy largo plazo.

t1 t2 t3 t4t1 1 0.6 0.3 0.12

(I - Q)^-1= t2 0 1 0.5 0.2t3 0 0 1 0.4t4 0 0 0 1

a1 a2t1 0.964 0.036

(I - Q)^-1 R = t2 0.94 0.06t3 0.88 0.12t4 0.7 0.3

Page 28: Monografia Cadenas de Markov

A diferencia del método clásico de utilizar el año inmediatamente anterior

como guía, la cadena de Markov utiliza todos los estados anteriores para

determinar una evolución más realista de lo que cabe esperar de los

próximos ejercicios. Es una técnica curiosa aunque algo complicada para

quien no domine la materia.

Toda consecución numérica cuando se repite tiende a descubrir cifras

relevantes y patrones. Dado el gran número y variedad de cifras existente en

los balances lo mejor es realizar el estudio en base a los ratios. Esto

descubre más posibilidades pues también podemos utilizar los ratios de

RRHH, que cuantifican valores cualitativos y miden factores humanos.

Es posible aplicar este principio a campos tan diferentes como la

meteorología, astrología, biología… o a las empresas (entre otras muchas

áreas, por supuesto).

En lo que nos interesa, se ha aplicado para analizar patrones de morosidad,

necesidades de personal, prever defectos en maquinaria, etc.

Una manera diferente de controlar ciertos factores de la gestión de un

negocio es realizar aproximaciones o previsiones en base a la utilización de

cadenas de Markov. No es un método totalmente exacto pero si útil para

previsiones a largo o muy largo plazo.

El problema de estas cadenas radica en la dificultad de su cálculo en casos

donde el número de estados es muy grande (por eso recomiendo realizarlo

en base a ratios relevantes) y en la búsqueda de factores que respondan a

las “propiedades markovianas”.

Además, requiere de personal cualificado para crear un sistema eficiente

para esos casos. Para ello se puede hablar con un informático ya que

deberá realizarse una base de datos y este deberá estudiar las fórmulas

para aplicarlas de la mejor manera posible.

Page 29: Monografia Cadenas de Markov

REFERENCIAS BIBLIOGRÁFICAS

LIBROS:

HAMDY A Taha

Investigación de Operaciones 7º Edicion 2004

CÓRDOVA, Manuel

2006 Estadística Aplicada. Primera Edición

Perú: Editorial Moshera.

DUGAS, R.

1976 La matemática, objeto de cultura y herramienta de trabajo

España: Editorial Gustavo Gili

EVANS, M. & ROSENTHAL, J.

2005 Probabilidad y Estadística: La ciencia de la Incertidumbre

España: Editorial Reverté.

GORDON, Patrick

1997 Cadenas finitas de Markov y sus aplicaciones.

Primera Edición. Traducido por: TRILLAS, Enrique y BONET,

Eduardo. España: Hispano Europea.

HILLIER, Frederick y LIEBERMAN, Gerald

2006 Introducción a la Investigación de Operaciones.

Octava Edición Traducido por: MURRIETA, Jesús. México:

McGraw-Hill Interamericana.

KERNINGHAN, B.

2004 The Practice of Programming

Indianapolis: Pearson Education

WINSTON, Wayne

2005 Investigación Operativa – Aplicaciones y Algoritmos.

Page 30: Monografia Cadenas de Markov

Cuarta Edición. Traducido por: VELASCO, Adolfo. México: Thompson.

BOLETÍN DE LA SOCIEDAD DE ESTADÍSTICA E INVESTIGACIÓN

OPERATIVA DE LA UNIVERSIDAD COMPLUTENSE

2006 “Andrei Markov (1856-1922) en el 150 Aniversario de su

Nacimiento”. Madrid, volumen 22, pp.4, 7-8.

MATERIAL DE ENSEÑANZA:

FERNANDEZ BONILLA, Lino

Métodos cuantitativos para negocios II – Primera Edición.

UNCP-FACAP-2009

LÓPEZ, Ezequiel

“Cadenas de Markov”. Departamento de Ciencias y Lenguajes de

Comunicación de la Universidad de Málaga. 14 de diciembre del 2012.

www.lcc.uma.es/~ezeqlr/ios/Tema4.ppt

RODRIGUEZ, Teodoro

2002 “Procesos Estocásticos”. Introducción a los métodos estadísticos,

numéricos y probabilísticos. Portal Colegio Maristas Cristo Rey.

España. Consulta: 14 de diciembre del 2012.

<http://centros.edu.aytolacoruna.es/maristas/Apuntes%20Estadisti

ca%20P3.pdf>

PÁGINAS WEB:

EDICIONES UPC

2002 Cadenas de Markov. Consulta: 10 de diciembre del 2012.

<http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf>

INFOAMÉRICA.ORG

s/a Biografía Andrei Markov. 10 de diciembre del 2012.

<http://www.infoamerica.org/teoria/markov1.htm>

Page 31: Monografia Cadenas de Markov

LABORATORIO DE CÓMPUTO

2005 Cadenas Ocultas de Markov. 10 de diciembre del 2012.

<http://www.alumnos.inf.utfsm.cl/~ntroncos/files/publish/hmm.pdf>

PLANETA SEDNA

La Divina Proporción. Consulta: 10 de diciembre del 2012.

<http://www.portalplanetasedna.com.ar/divina_proporcion.htm>

MICROSIERVOS

2008 Fractales Imposibles. 10 de diciembre del 2012.

<http://www.microsiervos.com/archivo/arte-y-diseno/fractalesimposibles.

html>

MIT

2003 Modelos Ocultos de Markov. Consulta: 10 de diciembre del 2012.

<http://mit.ocw.universia.net/6.345/NR/rdonlyres/Electrical-

Engineering-and-Computer-Science/6-345Automatic-Speech-

RecognitionSpring2003/4C063D4A-3B8B-4F05-B475-

85AAD0D66586/0/lecture10.pdf>

UNAM

Procesos Estocásticos. Consulta: 10 de diciembre del 2012.

<http://verona.fi-p.unam.mx/boris/teachingnotes/estocasticos.pdf>