TRABAJO FINAL DE CADENAS DE MARKOV.doc
-
Upload
thomas-mcdonald -
Category
Documents
-
view
213 -
download
8
Transcript of TRABAJO FINAL DE CADENAS DE MARKOV.doc
FACULTAD DE INGENIERIA INDUSTRIAL
ESCUELA DE INGENIERIA INDUSTRIAL
CURSO : INVESTIGACIÓN DE OPERACIONES II
DOCENTE : ING. MIGUEL JIMENEZ CARRION
ALUMNOS : ESPINOZA AMBULAY CARLOS CASTILLO PINTADO JEFF RIVERA LLACSAHUANCA DARWIN LLENQUE TUME CESAR
JARAMILLO ALAMA JUAN
INTRODUCCIÓN
En el acontecer diario nos mezclamos con diferentes situaciones que requieren un
análisis exhaustivo para llegar a una solución. Situaciones en las que no bastando con la
ayuda de la misma experiencia necesitan otro tipo de herramientas para sus prontas
decisiones ya que podrían ser vitales para el progreso de una empresa o negocio.
Las cadenas de Markov son pues una de esas herramientas que motivan el uso de
hechos que ya sucedieron para a través de probabilidades predecir una futura situación.
En el presente trabajo pretendemos mostrar la aplicación de las cadenas de Markov en el
proceso industrial de fabricación y comercialización (en este caso analizaremos la
demanda) de la comercialización de jaboncillos en el mercado minorista. Para ello
tomamos refencia de la distribuidora “MI DIANITA” ubicada en el mercado central de
Piura.
. Nosotros analizaremos la demanda de los siguientes productos: JABONES NEKO,
NIVEA, PALMOLIVE Y OTROS.
OBJETIVOS
GENERAL:
Aplicar la teoría fundamental de cadenas de Markov para determinar el comportamiento
de la transferencia de demanda a futuro en cada proceso.
ESPECIFICOS:
Mostrar que el proceso es una cadena de Markov.
Construir la matriz de transición.
Mostrar que los estados son accesibles.
Mostrar que los estados se comunican.
Mostrar que los estados son recurrentes.
Mostrar que los estados son aperiódicos.
Determinar la regularidad de la matriz.
Determinar los limites ergódicos.
Presentar las probabilidades de estado estable.
MARCO TEORICO
1. PROCESOS MARKOV
1.1.ESTADOS DEL SISTEMA:
Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es
exhaustivo y describe todos los posibles estados donde el sistema puede estar. La
transición del estado i a j ocurre con una probabilidad pij.
Podemos pensar en un modelo de Markov como una simple línea de transferencia.
1.2.LA CONDICIÓN DE MARKOV:
Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,.....
Entonces el sistema es un estado discreto de discretas transiciones de procesos de
Markov. La implicación de esta condición es que la historia anterior del sistema a su
llegada en (a) no tiene efecto en la transición a (j). En otras palabras, el sistema no
tiene memoria.
1.3.PROBABILIDADES DE TRANSICIÓN:
Para una cadena de Markov, se definen las probabilidades de transición como:
pij = P[Sj(k) / Si(k-1)] 1<= i,j <= m
y las pij son independientes de (k). Estas probabilidades pueden ser incluidas en una
matriz de transición,
P11 P12 ........................ P1m
P21 P22 ........................ P2m
P= . . . .
. . . .
Pm1 Pm2 ........................ Pmm
También note que las transiciones de probabilidad satisfacen
0<=pij<=1
y
m
pij =1, i = 1,2,3...........,m
.j=1
Debido a que los estados son mutuamente excluyentes y colectivamente exhaustivos.
La matriz P, proporciona una completa descripción del proceso de Markov el cual se
usara para responder numerosas preguntas sobre el sistema.
1.4.CLASIFICACIÓN DE LOS ESTADOS
Limite de las probabilidades de estado:
Si k tiende a infinito, P(k) llega a una constante, entonces el limite de las
probabilidades de estado existe y son independientes de la condición inicial.
Si es un vector 1 x m definido como,
Limkinfinito P(k)=
Entonces puede satisfacer =P.
Para el ejemplo, esta ecuación se puede ser resuelta con la restricción
im i =1 para obtener (12)
Estado transitorio
Si es un estado transitorio si se puede dejar el estado pero nunca retornar a él.
Estado absorbente
Si es un estado absorbente si el sistema entra al estado y permanece ahí. Y el
límite de la probabilidad de estado es 1. este estado es conocido también como
estado trampa.
Cadena recurrente
Una cadena recurrente es un conjunto de estados de los que el sistema no puede
salir. Un estado transitorio conduce al sistema dentro de este conjunto de
estados. El sistema hace saltos dentro de este conjunto indefinidamente. La
cadena recurrente es también llamada subcadena de Markov irreducible o de
clases recurrentes.
Finalmente se presentan unos útiles factores de las cadenas de Markov:
Cada cadena de Markov debe tener al menos una cadena recurrente.
Una cadena recurrente es un estado absorbente generalizado.
Un proceso de Markov que tiene una cadena recurrente será completamente
ergódica desde dondequiera que el inicie finalizara en cadena recurrente.
Si un proceso tiene dos o más cadenas recurrentes, entonces la propiedad
ergódica no se mantiene en el tiempo.
Un estado transitorio es un estado que ocupa el sistema antes de convertirse en
una cadena recurrente.
2. CADENAS ERGÓDICAS
Condición suficiente: si existe un n>0 tal que Pijn >0; i, j=0,1,2....m. la cadena de
Markov, con esta propiedad, se llama ergódica. Entonces, Pijn = k=0 (Pik
n * Pkj), luego
j = k=0 (k * Pkj) y como j=0 Pijn = 1, entonces j=0 j =1
Teorema. Para una cadena de Markov ergódica, j =Lim ninfinito Pijn existe y j (j
pertenece {0,..,m}) es la única solución no negativa de j. Entonces:
j = k=0 (k * Pkj) y j=0 j =1.
2.1.LÍMITES ERGÓDICOS EN LAS CADENAS DE MARKOV
La relación fundamental en una cadena de Markov es: Pn =Mn P0. Y si nuestro
interés es el comportamiento asintótico de Pn, es decir Lim ninfinito Pn entonces el
problema es encontrar las condiciones para que este límite exista y en caso de
existir, ¿dependerá del estado inicial del sistema?
Bajo condiciones de “regularidad” la distribución asintótica existe y bajo estas
condiciones la distribución en el límite será independiente de la distribución inicial.
TEOREMA BÁSICO DEL LÍMITE PARA CADENAS DE MARKOV:
En una cadena de Markov recurrente irreducible y aperiódica se tiene que:
Lim ninfinito Piin =
1inf
n=1
n fiin
Siendo fii la probabilidad de que el proceso regrese al estado i dado que comienza
en el estado i.
Y además
Lim ninfinito Pijn = Lim ninfinito Pii
n
Del teorema se pueden sacar fuertes conclusiones:
Si M = Pij es la matriz de transición de una cadena de Markov, y si suponemos que
esta cadena es recurrente, irreducible y aperiódica, se nos garantiza la existencia
de la matriz M(infinita) donde la entrada j,i es P ij(inf) =Lim ninfinito Pij
n , pero como
Pij(inf) = Pii
(inf) se concluye que la matriz M(infinita) tiene sus columnas iguales, esto es
de la forma :
P00inf P00
inf P00inf ….
P11inf P11
inf P11inf …
M(infinita) = P22inf P22
inf P22inf …
. . . .Pii
inf Piiinf Pii
inf …
Sea C una cadena irreducible y recurrente, entonces P ijn =0 para i pertenece a C y j
no pertenece a C dado n. Esto es, toda vez que entremos en C no es posible
abandonarlo, luego la matriz Pij con i,j perteneciendo a C estará asociada a una
cadena de Markov irreducible y recurrente luego el teorema básico es aplicable si
la clase resulta ser aperiódica.
Ahora si Lim ninfinito Piin = =0 y la clase es recurrente se dirá entonces que la clase
es débilmente ergódica o nula recurrente.
Supongamos que Lim ninfinito Piin = i >0 para algún i en una clase aperiódica
recurrente, entonces j >0 para todo j que esté en la clase de i. Si este es el caso
diremos que la clase es positiva recurrente o fuertemente ergódica.
El valor infn=1 n fii
n = mi. se define como el tiempo medio de
recurrencia del estado i. Ahora se asegura, sin demostración, que bajo las
condiciones de regularidad del teorema anterior, que Lim ninfinito Piin = 1/mi = i. El
cálculo de los i se entrega en el siguiente teorema.
Teorema. En una clase aperiódica positiva recurrente con estados i=0,1,2.... se
tiene que
Lim ninfinito Piin = i = inf
k=0 Pkj k ; infk=0 k =1 (1)
Cualquier conjunto i que satisfaga (1) se llama probabilidad de distribución
estacionaria de la cadena de Markov.
Observe que si Pij es la matriz de transición asociada a una clase recurrente ergódica
positiva, entonces la ecuación i = infk=0 Pkj k llevada a su forma matricial:
P00 P10 P20 … 1 1
P01 P11 P21 … 2 2
P02 P12 P22 … 3 3
. . . . . .
. . . . . . = .
. . . . . .P0i P1i P2i … i i
. . . . . .
. . . . . .
Establece claramente que (1 2 3.....t es un auto vector (a la derecha) de la matriz
Pij asociado al autovalor 1. Para esto debemos saber que la matriz de Markov tiene
un autovalor igual a 1, más aún, este valor será el mayor, en valor absoluto, si la
matriz es primitiva, esto es si todas sus entradas son positivas para alguna
potencia de la matriz.
ENUNCIADO DEL PROBLEMA.
La distribuidora “MI DIANITA” de la cual nosotros analizaremos el comportamiento de la
taza de transferencia de la demanda de jaboncillos como: JABONES NEKO, NIVEA,
PALMOLIVE Y OTROS.
- Las ventas semanales se dan en la siguiente tabla.
PRODUCTO SEMANA 01 SEMANA 02
NEKO 854 727
NIVEA 132 111
PALMOLIVE 300 290.5
OTROS 371 301
- La porción de la demanda que no continúa en el mismo producto “i” se traslada
uniformemente a los demás productos “n-i”.
- Las probabilidades iniciales de demanda de cada producto son: 51.54% de NEKO,
7.96% de NIVEA, 18.11% de PALMOLIVE y 22.39% de OTROS.
SOLUCION DEL PROBLEMA
1) DESCRIPCION DE LOS ESTADOS:
NUMERO DE ESTADO ESTADO SIMBOLO DE ESTADO
01 NEKO N.
02 NIVEA C.
03 PALMOLIVE P.
04 OTROS O.
2) EL PROCESO DE TRANSFERENCIA DE DEMANDA COMO CADENA DE MARKOV.
NEKO NIVEA
PALMOLIVE
OTROS
El proceso se define como una cadena de Markov debido a que cumple la propiedad
Markoviana de la siguiente forma:
Al pasar de un estado a otro la probabilidad de la demanda de cada producto
puede aumentar o disminuir.
La cantidad de clientes (demanda) que llega a un estado proveniente de otro
estado, depende solo de que en el estado “i” el cliente quedo insatisfecho o este
desea probar nuevos productos “n-i”. El proceso se mira como un proveedor que le
entrega a su próximo cliente teniendo en cuenta que tanto le entrega al cliente del
nivel anterior y al cliente actual.
3) DATOS RESUMIDOS PARA CONSTRUIR LA MATRIZ
PRODUCTO SEMANA 01 SEMANA 02
NEKO 854 727
NIVEA 132 111
PALMOLIVE 300 290.5
OTROS 371 301
TOTAL 1657 1429.5
4) ICONO DEL PROBLEMA
NEKO NIVEA
PALMOLIVE OTROS
5) CALCULO DE PROBABILIDADES
PROPORCIONES DE DEMANDA (SEMANA 01)semana 01 comprende desde el día 20 hasta el día 26
PROPORCIONESDEMANDA DE NEKO 854 0.5154DEMANDA DE NIVEA 132 0.0796DEMANDA DE PALMOLIVE 300 0.1811DEMANDA DE OTROS 371 0.2239DEMANDA TOTAL 1657
PROBABILIDADES DE TRANSFERENCIA DE LA DEMANDA ENTRE ESTADOS
PRODUCTOSEMANA
01SEMANA
02DEMANDA QUE NO CONTINUA EN "i"
DEMANDA QUE
CONTINUA EN "i"
DEMANDA DE NEKO 854 727 0.1487 0.8512DEMANDA DE NIVEA 132 111 0.159 0.8409DEMANDA DE PALMOLIVE 300 290.5 0.0317 0.9683DEMANDA DE OTROS 371 301 0.1886 0.8111
LA DEMANDA QUE NO CONTINUA EN "i" PASA EN PARTES IGUALES A "n-i"
OREJITAS KEKE DE N. PIONONO PASTELITOSDEMANDA QUE NO CONTINUA EN NEKO - 0.0496 0.0496 0.0496DEMANDA QUE NO CONTINUA EN NIVEA. 0.054 - 0.053 0.053DEMANDA QUE NO CONTINUA EN PALMOLIVE 0.0106 0.0106 - 0.0106DEMANDA QUE NO CONTINUA EN OTROS 0.063 0.063 0.063 -
6) MATRIZ DE TRANSICION
ESTADOS OREJITASKEKE DE NARANJA PIONONO PASTELITOS
NEKO 0.8512 0.0496 0.0496 0.0496 NIVEA 0.054 0.8409 0.053 0.053 PALMOLIVE 0.0106 0.0106 0.9683 0.0106 OTROS 0.063 0.063 0.063 0.8111
7) CLASIFICACION DE LOS ESTADOS
Primeramente diremos que es una cadena de markov ergodica.
Los cuatro estados (orejitas, keke de naranja, pionono, pastelitos) son:
Estados aperiodicos.
Estados concurrentes.
Estados comunicados.
Estados alcanzables.
8) ARBOL DE LA DISTRIBUCION DE PROBABILIDADES DEL COMPORTAMIENTO
DE LA TRANSFERENCIA DE LA DEMANDA.
N N C P
O
C N C P
O
P N C
P O
NO C
P
O
De acuerdo a la matriz anterior y a los datos de la demanda de los productos se
generan las siguientes interrogantes:
1.- Cual es la matriz de transición para 2 semanas y 4 semanas.
Pasando 2 semanas la demanda se mantendrá de la siguiente manera.
P² = P*P
0.8512 0.0496 0.0496 0.0496 0.8512 0.0496 0.0496 0.04960.0540 0.8409 0.0530 0.0530 0.0540 0.8409 0.0530 0.05300.0106 0.0106 0.9683 0.0106 * 0.0106 0.0106 0.9683 0.0106 0.0630 0.0630 0.0630 0.8111 0.0630 0.0630 0.0630 0.8111
0.7309 0.0876 0.0958 0.0856 0.0953 0.7137 0.1017 0.0908 = 0.0205 0.0203 0.9307 0.0199 0.1088 0.1079 0.1183 0.6650
Después de 4 semanas la matriz de transición de la transferencia de demanda será la
siguiente:
(P²)²
0.7309 0.0876 0.0958 0.0856 0.7309 0.0876 0.0958 0.0856 0.0953 0.7137 0.1017 0.0908 0.0953 0.7137 0.1017 0.0908= 0.0205 0.0203 0.9307 0.0199 * 0.0205 0.0203 0.9307 0.0199 0.1088 0.1079 0.1183 0.6650 0.1088 0.1079 0.1183 0.6650
0.5538 0.1317 0.1782 0.1294 0.1496 0. 5296 0. 1870 0.1354 = 0.0381 0.0374 0.8725 0.0354 0.1646 0.1607 0.2101 0.4637
2.- Conociendo la demanda inicial de:
NEKO 0.5154NIVEA 0.0796PALMOLIVE 0.1811OTROS 0.2239
Después de 2 y 4 semanas cual será el nuevo porcentaje de cantidad demandada de
orejitas, keke de naranja, pionono, pastelitos.
Después de 2 semanas será:
p*P²
= 0.5154 0.0796 0.1811 0.2239 * 0.7309 0.0876 0.0958 0.0856 0.0953 0.7137 0.1017 0.0908 0.0205 0.0203 0.9307 0.0199 0.1088 0.1079 0.1183 0.6650
N C P O
= 0.4123 0.1296 0.2525 0.2038
El nuevo porcentaje de cantidad demandada de cada producto después de 2 semanas
será:
PRODUCTO PORCENTAJE DE CANTIDAD DEMANDADADEMANDA DE NEKO 41.23%DEMANDA DE NIVEA 12.98%DEMANDA DE PALMOLIVE 25.25%DEMANDA DE OTROS 20.38%
Después de 4 semanas será:
p*(P²)²
= 0.5154 0.0796 0.1811 0.2239 * 0.5538 0.1317 0.1782 0.1294 0.1496 0. 5296 0. 1870 0.1354 0.0381 0.0374 0.8725 0.0354 0.1646 0.1607 0.2101 0.4637
N C P O
= 0.3411 0.1559 0.3118 0.1877
El nuevo porcentaje de cantidad demandada de cada producto después de 2 semanas
será:
PRODUCTO PORCENTAJE DE CANTIDAD DEMANDADADEMANDA DE NEKO 34.11%DEMANDA DE NIVEA 15.59%DEMANDA DE PALMOLIVE 31.18%DEMANDA DE OTROS 18.77%
3.-Obtener la matriz limite de las sucesivas potencias de la matriz de transición
para conocer las probabilidades de demanda a largo plazo.
t*P=t Pⁿ
0.8512 0.0496 0.0496 0.0496 0.0540 0.8409 0.0530 0.0530 = t1 t2 t3 t4 t1 t2 t3 t4 * 0.0106 0.0106 0.9683 0.0106 0.0630 0.0630 0.0630 0.8111
0.8512 t1 + 0.0496 t2 + 0.0496 t3 + 0.0496 t4 = t1 0.0540 t1 + 0.8409 t2 + 0.0530 t3 + 0.0530 t4 = t2
0.0106 t1 + 0.0106 t2 + 0.9683 t3 + 0.0106 t4 = t3
0.0630 t1 + 0.0630 t2 + 0.0630 t3 + 0.8111 t4 = t4
t1 + t2 + t3 + t4 = 1
SOLUCION
t1 = 0.2356
t2 = 0.1981
t3 = 0.3674
t4 = 0.1981
Pⁿ = 0.2356 0.1981 0.3674 0.1981
0.2356 0.1981 0.3674 0.1981
0.2356 0.1981 0.3674 0.1981
0.2356 0.1981 0.3674 0.1981
Esta es la matriz limite en la que hay un equilibrio establece las cantidades demandadas
de los 4 productos.
El porcentaje de las cantidades demandadas a largo plazo son:
PRODUCTO PORCENTAJE DE CANTIDAD DEMANDADADEMANDA DE NEKO 23.56%DEMANDA DE NIVEA 19.81%DEMANDA DE PALMOLIVE 36.74%DEMANDA DE OTROS 19.81%
CONCLUSIONES
1. Esta primera conclusión es para decir que no se concluirá sobre los resultados
numéricos del proceso, pues en el desarrollo del mismo se explica claramente las
respuestas obtenidas. Nuestro deseo es expresar conclusiones alrededor del proceso
de construcción del conocimiento y crear una inquietud acerca del proceso a analizar.
2. Se requiere de más tiempo para poder elaborar un buen documento que sirva como
apoyo a otras personas que quieran profundizar en el modelado y explicación de una
cadena de Markov.
3. No es fácil construir una matriz de transición.
4. En este problema en particular se tuvo que modelar el proceso de la demanda con los
datos disponibles en la empresa. No hay otros más.
5. Se aprendió a construir la matriz de transición por medio de proporciones generadas
por los datos totales de la demanda en cada uno de los productos fabricados (orejitas,
keke de naranja, pionono, pastelitos).
6. El problema se abordo desde una perspectiva académica, pero siempre con el norte
de responderle a un empresario de forma técnica y científica todas las inquietudes que
se generan alrededor de una cadena de Markov.
7. Las cadenas de Markov no deben abordase de una forma simple, ellas tienen una
sustentación matemática fuerte y unos requisitos que se deben probar.
Existen inquietudes que nos llevan a concluir que no es solamente construir una matriz y
calcularle probabilidades de estado estable y tiempos de ocurrencia y recurrencia, las
cadenas de Markov son mucho más.
BIBLIOGRAFÍA
INTRODUCCIÓN A LA INVESTIGACIÓN DE OPERACIONES, Hiller and
Lieberman, Edit.Mc Graw Hill.
ÁLGEBRA LINEAL. Grossman, Edit. Iberoamérica.
APUNTES DE CLASE, Ing. CARLOS COELLO OBALLE - UNP.
Documentos bajados de la Internet.
1. Cadenas de Markov
2. Límites ergódicos en las cadenas de Markov.
3. Notas sobre cadenas de Markov.
4. Análisis de Markov.