UNIVERSIDAD FERMIN TOROFACULTAD DE CIENCIAS ECONOMICAS Y SOCIALESANALISIS DE PROBLEMAS Y TOMAS DE DECISIONES
AUOR: MARLIN BORGES24 de julio de 2012
INTRODUCCION
La toma de decisiones debe ser realizada bajo las condiciones previas de un
análisis detenido de la información y la situación que necesitamos resolver, para eso
necesitamos emplear técnicas que nos ayuden
realizar una investigación precisa y completa
del evento. Las técnicas que en el presente
documento se redactan, son citas tomadas de
especialistas, donde se hace enfoque a los
puntos más importantes, destacando uno de los
métodos más reconocidos y efectivos dentro de
los 3 métodos. Método Determinístico modelo
matemático donde las mismas entradas producirán invariablemente las
mismas salidas, (Programación líneal – SIMPLEX). Método Probabilístico, conocer
con un cierto nivel de certeza como se podría comportar un sistema a futuro (Lógica
Bayesiana – Teoría de Juegos). Métodos Híbridos, combinación de métodos
cuantitativos y cualitativos en el mismo trabajo, es una aproximación muy utilizada
en varios campos, por ejemplo en educación y en sociología (Modelo de Transporte y
Localización. Técnica de MonteCarlo).
Un buen análisis conlleva a una toma de decisión acertada, recordando que la
racionalidad es la mejor arma para atacar cualquier problema o situación.
MÉTODOS DETERMINISTICOS
Un modelo determinístico es
un modelo matemático donde las
mismas entradas producirán
invariablemente las mismas salidas, no
contemplándose la existencia del azar ni
el principio de incertidumbre. Está
estrechamente relacionado con la
creación de entornos simulados a través
de simuladores para el estudio de situaciones hipotéticas, o para crear sistemas de
gestión que permitan disminuir la incertidumbre.
La inclusión de mayor complejidad en las relaciones con una cantidad mayor de
variables y elementos ajenos al modelo determinístico hará posible que éste se
aproxime a un modelo probabilístico o de enfoque estocástico.
PROGRAMACIÓN LINEAL – MÉTODO SIMPLEX
Mucha gente sitúa el desarrollo de
la programación lineal entre los avances
científicos más importantes de la mitad del siglo
XX, y debemos estar de acuerdo con esta
afirmación si tenemos en cuenta que su impacto
desde 1950 ha sido extraordinario. Se han escrito
decenas de libros de texto sobre la materia y los
artículos publicados que describen aplicaciones importantes se cuentan ahora por
cientos. De hecho, una proporción importante de todo el cálculo científico que se
lleva a cabo en computadoras se dedica al uso de la programación lineal y
a técnicas íntimamente relacionadas. (Esta proporción se estimó en un 25%, en un
estudio de la IBM).
Un modelo de programación lineal proporciona un método eficiente para
determinar una decisión óptima, (o una estrategia óptima o un plan óptimo) escogida
de un gran número de decisiones posibles.
En todos los problemas de Programación Lineal, el objetivo es la maximación o
minimización de alguna cantidad.
En desarrollo de este capítulo se aplicarán la solución de dichos modelos aplicando
diversas técnicas como: el método gráfico, método simplex, método matricial, técnica
de la gran M.
Además se desarrollara la aplicación de variables artificiales y obtención de
soluciones para identificar a que tipo de clasificación pertenecen. Por medio de
dichos modelos de solución se podrá obtener las solución adecuada para cada
problema y facilitar la toma de decisiones.
1.Encuentra una solución óptima
2.Es un método de cambio de bases
3.Requiere que la función objetivo sea expresada de tal forma que cada variable
básica tenga como coeficiente 0
4.Requiere que cada variable básica aparezca en una y solamente una ecuación
de restricción.
Dualidad
Asociado a cada problema de Programación Lineal existe un llamado dual, de hecho
al de Programación Lineal se le llama primal. La forma general del problema dual es
la siguiente:
Optimizar Z = b1Y1+ b1Y2 +….+ bn Yn). Función objetivo.
Sujeta a a11Y1+ a11Y2 +…..+ am1Y1) £ C1
a21Y1+ a22Y2 +…..+ am2Y2) £ C1
. Restricciones
.
a1mY1+ a2mY2 +…..+ amnYm) £ Cn
Para facilitar la comprensión de lo anterior considérese el diagrama siguiente:
Primal Dual
C1……. Cn (1)
a11 b1
(2) (3)
am1 bm
b1……. bm (3)
(2) a11……. am1 C1
(1)
C2
Variables
X1……. Xn
Variables
Y1……. Ym
El problema dual tiene las siguientes características:
• El el objetivo de la optimización es contrario al del primal.
• Las inecuaciones de restricción son inversas.
• La solución del dual es la misma que la del primal.
Desde el punto de vista económico, el significado de las variables duales es de
gran interés para los gerentes, ya que representan el valor por unidad de recurso
adicional, lo cuál permite tomar decisiones sobre donde invertir para incrementar las
utilidades.
Análisis de Sensibilidad
El objetivo del análisis de sensibilidad es determinar la influencia de ciertos valores
en la solución óptima, que nos permite la interpretación razonable de los resultados
obtenidos. En muchos casos la información lograda por la aplicación del análisis de
sensibilidad puede ser más importante y más informativa que simple resultado
obtenido en la solución óptima.
El análisis deviene del resultado de los cambios en:
• Los coeficientes en la función objetivo.
• Los términos independientes en las restricciones.
METODO PROBABILÍSTICO
Lo que nos permite un método probabilístico es conocer con un cierto nivel
de certeza como se podría comportar un sistema a futuro. A los métodos que utilizan
variables aleatorias que varían con el tiempo se les conoce como métodos
estocásticos.
El proceso de Markov analiza y determina la situación o comportamiento del
sistema a futuro empleando las
probabilidades de pasar de un
estado a otro para tiempos
determinados, por eso se le
considera un método estocástico
porque considera nuevas
probabilidades para cada tiempo
y/o para cada estado. Generalmente se utiliza una variable discreta de asociación de
probabilidades a los diferentes estados para simplificar los cálculos.
LÓGICA BAYESIANA. TEORÍA DE JUEGOS
La Teoría de Juegos consiste en razonamientos circulares, los cuales no
pueden ser evitados al considerar cuestiones estratégicas. Por naturaleza, a los
humanos no se les da muy bien pensar sobre los problemas de las relaciones
estratégicas, pues generalmente la solución es la lógica a la inversa.
En la Teoría de Juegos la intuición no educada no es muy fiable en situaciones
estratégicas, razón por la que se debe entrenar tomando en consideración ejemplos
instructivos, sin necesidad que los mismos sean reales. Por lo contrario en muchas
ocasiones disfrutaremos de ventajas sustanciales estudiando juegos, si se eligen
cuidadosamente los mismos. En estos juegos-juegos, se pueden desentender de todos
los detalles.
Si en lugar de utilizar personajes ficticios utilizamos personajes reales para los juegos
si se observase qué tan honesto es ese personaje, cómo manipularía
la información obtenida, etc. Para un especialista en Teoría de Juegos el ser
deshonesto, etc., sería un error comparable al de un matemático que no respeta
las leyes de la aritmética porque no le gustan los resultados que está obteniendo.
Origen de la teoría de juegos
La Teoría de Juegos fue creada
por Von Neumann y Morgenstern en
su libro clásico The Theory of Games
Behavior, publicado en 1944. Otros habían
anticipado algunas ideas.Los economistas
Cournot y Edgeworth fueron
particularmente innovadores en el siglo
XIX. Otras contribuciones posteriores
mencionadas fueron hechas por los matemáticos Borel y Zermelo. El mismo Von
Neumann ya había puesto los fundamentos en el artículo publicado en 1928. Sin
embargo, no fue hasta que apareció el libro de Von Neumann y Morgenstern que el
mundo comprendió cuán potente era el instrumento descubierto para estudiar las
relaciones humanas.
Todavía encontramos profesores mayores que nos explican que la Teoría de
juegos o sirve para nada porque la vida no es un "Juego de suma cero", o porque se
puede obtener el resultado que uno quiera seleccionando el apropiado "concepto de
solución cooperativa".
Afortunadamente las cosas han evolucionado con mucha rapidez en los
últimos veinte años, y éste y otros libros modernos sobre teoría de juegos ya no
padecen algunos de los presupuestos restrictivos que Von Neumann y Morgenstern
consideraron necesarios para progresar. Como resultado, lo que la teoría de juegos
prometía en un principio se está empezando a cumplir. En los últimos años, sus
repercusiones en la teoría económica sólo se pueden calificar de explosivas. Todavía
es necesario, sin embargo, saber algo de la corta historia de juegos, aunque sólo sea
para entender por qué se usan algunos términos.
Von Neumann y Morgenstern investigaron dos planteamientos distintos de la
Teoría de Juegos. El primero de ellos el planteamiento estratégico o no cooperativo.
Este planteamiento requiere especificar detalladamente lo que los jugadores pueden y
no pueden hacer durante el juego, y después buscar cada jugador
una estrategia óptima. Lo que es mejor para un jugador depende de lo que los otros
jugadores piensan hacer, y esto a su vez depende de lo que ellos piensan del primer
jugador hará. Von Neumann y Morgenstern resolvieron este problema en el caso
particular de juegos con dos jugadores cuyos intereses son diametralmente opuestos.
A estos juegos se les llama estrictamente competitivos, o de suma cero, porque
cualquier ganancia para un jugador siempre se equilibra exactamente por una pérdida
correspondiente para el otro jugador. El ajedrez, el backgammon y el póquer son
juegostratados habitualmente como juegos de suma cero.
La segunda parte del libro de Von Neumann y Morgenstern desarrollaron el
planteamiento coalicional o cooperativo, en el que buscaron describir
laconducta óptima en juegos con muchos jugadores. Puesto que éste es un problema
mucho más difícil, no es de sorprender que sus resultados fueran mucho menos
precisos que los alcanzados para el caso de suma cero y dos jugadores. En particular,
Von Neumann y Morgenstern abandonaron todo intento de
especificar estrategias óptimas para jugadores individuales. En lugar de ello se
propusieron clasificar los modelos de formación de coaliciones que son consistentes
con conductas racionales. La negociación, en cuanto a tal, no jugaban papel alguno en
esta teoría. De hecho, hicieron suyo el punto de vista, que había predominado entre
los economistas al menos desde la época de Edgeworth, según el cual los problemas
de negociación entre dos personas son inherentemente indeterminados.
A principio de los años cincuenta, en una serie de artículos muy famosa el
matemático John Nash rompió dos de las barreras que Von Neumann y Morgenstern
se había auto-impuesto. En el frente no cooperativo, estos parecen haber pensado que
en estrategias la idea de equilibrio, introducida por Cournot en 1832, no era en sí
misma una noción adecuada para construir sobre ella una teoría –de aquí que se
restringieran a juegos de suma cero-. Sin embargo, la formulación general de Nash de
la idea de equilibrio hizo ver claramente que una restricción así es innecesaria. Hoy
día, la noción de equilibrio de Nash, la cual no es otra cosa que cuando la elección
estratégica de cada jugador es la respuesta óptima a las elecciones estratégicas de los
otros jugadores. A Horace y Maurice les fueron aconsejados, por su consultor
especialista en teoría de juegos, que usaran un equilibrio de Nash. Es tal vez, el más
importante de los instrumentos que los especialistas en teoría de juegos tienen a
disposición. Nash también hizo contribuciones al planteamiento cooperativo de Von
Neumann y Morgenstern. Nash no aceptó la idea de que la teoría de juegos debe
considerar indeterminados problemas de negociación entre dos personas y procedió a
ofrecer argumentos para determinarlos. Sus ideas sobre este tema fueron
generalmente incomprendidas y, tal vez como
consecuencia de ello, los años que la teoría de
juegos paso en Babia se gastaron principalmente desarrollando el planteamiento
cooperativa de Von Neumann y Morgenstern en direcciones que finalmente
resultaron improductivas.
La historia de la teoría de juegos en los últimos veinte años está demasiado
repleta de incidentes para ser contada. Algunos nombres, sin embargo, no deben ser
pasados en silencio. El acróstico NASH puede ayudar a quienes son. El propio Nash
tiene la letra N, A por Aumann, S es Shapley y
también por Selten y H es por Hansanyi.
Lo que es tal vez más importante sobre
los últimos veinte años de teoría de juegos es
que los mayores progresos se han dado en la
teoría no cooperativa.
Es difícil explicar hacia donde se dirige la teoría
de juegos a una audiencia que no sabe dónde se
encuentra. Estas observaciones, por tanto, son para quienes ya saben algo de teoría de
juegos.
Existen opiniones decididas sobre la dirección que la teoría de juegos debería
tomar, y es reconfortante ver las cosas parece que se mueven en la dirección correcta.
. En la filosofia
Los especialistas en Teoría de Juegos creen que pueden demostrar formalmente por
qué incluso el individuo más egoísta puede descubrir que con frecuencia, cooperar
con sus vecinos en una relación a largo plazo redundará en su propio interés ilustrado.
Con este fin estudian los equilibrios de juegos con repetición –juegos que los mismos
jugadores juegan una y otra vez-. Pocas cosas han descubierto en esta área hasta el
presente que hubieran sorprendido a David Hume, quien hace ya unos doscientos
años articuló los mecanismos esenciales. Estas ideas, sin embargo, están ahora
firmemente basadas en modelos formales. Para avanzar más, habrá que esperar
progresos en el problema de la selección de equilibrios en juegos con múltiples
equilibrios. Cuando estos progresos se den, sospecho que la filosofía social sin teoría
de juegos será algo inconcebible – y que David Hume será universalmente
considerado como su verdadero fundador.
TEORIA BAYESIANA
La teoría Bayesiana se encarga de estudiar y
analizar al consumidor, se observan las características y los
atributos que describen el comportamiento del potencial
cliente.
Consiste en aislar los atributos que la persona en cuestión
le asigna al determinado producto, y una vez hecho esto
aislarlo, y estudiarlo y analizarlo. Se dejan de lado todos
los otros factores, como características del producto, del
cliente, etc., y se centra simplemente en este atributo encontrado.
La teoría Bayesiana les da la libertad a los investigadores de estudiar la complejidad
del comportamiento humano de una forma mucho más realista, de lo que era
previamente posible. Aunque ningún método es 100 % exacto ya que la psiquis
humana es demasiado compleja como para simplificarla en una teoría.
El razonamiento bayesiano proporciona un enfoque probabilístico a la inferencia.
Está basado en la suposición de que las cantidad de interés son gobernadas por
distribuciones de probabilidad y que se pueden tomar decisiones óptimas razonando
sobre estas probabilidades junto con los datos obtenidos. Este enfoque está siendo
utilizado en multitud de campos de investigación, de los que cabe destacar la robótica
móvil y la visión computacional, ambas relacionadas con el contenido de esta tesis.
En este apéndice queremos definir dos de las herramientas utilizadas en el desarrollo
de esta tesis: el teorema de Bayes y el principio de longitud de descripción mínima.
El equilibrio de Nash ocupa un lugar central en la teoría de juegos; constituye de
alguna manera una condición mínima de racionalidad individual ya que, si una
combinación de estrategias no es un equilibrio de Nash, existe al menos un jugador
que puede aumentar sus ganancias cambiando de estrategia, y en consecuencia, ésta
se puede considerar difícilmente como una “solución” del modelo en la medida en
que el jugador interesado en cambiar descarta su elección, después de conocer la de
los otros.
Se ha tomado la costumbre por parte de los teóricos de juegos, lo mismo que por
parte de sociólogos, economistas etc. de ilustrar este tipo de situación empleando una
“pequeña historia” propuesta por A.W. Tucker y que llamó el dilema del prisionero
que se puede resumir de la siguiente manera.
Dos individuos sospechosos de haber cometido un robo son detenidos por al policía
que los lleva ante el juez, el cual los interroga separadamente. Cada uno puede callar
o denunciar a su cómplice; los dos se encuentran ante las siguientes posibilidades:
Callar y salir libre si el otro hace lo mismo;
Callar y ser condenado si el otro escoge denunciarlo;
Denunciar al otro y salir libre, ganándose una recompensa si el otro se calla;
Denunciar al otro y quedarse en prisión por un tiempo si el otro decide de la misma
manera la delación.
Se constata fácilmente que el único equilibrio de Nash consiste en una denuncia
mutua, lo que evidentemente es subóptimo ya que los dos sufren una condena, en
tanto que si se hubieran callado habrían sido liberados. No obstante este equilibrio es
“robusto” en el sentido en que la estrategia de acusar al otro es dominante cualquiera
que sea la elección del otro, la denuncia le procura una ganancia superior.
Existe al menos un jugador que puede aumentar sus ganancias cambiando de
estrategia, y en consecuencia, ésta se puede considerar difícilmente como una
“solución” del modelo en la medida en que el jugador interesado en cambiar descarta
su elección, después de conocer la
de los otros.
Se ha tomado la costumbre por
parte de los teóricos de juegos, lo
mismo que por parte de
sociólogos, economistas etc. de
ilustrar este tipo de situación
empleando una “pequeña historia”
propuesta por A.W. Tucker y que
llamó el dilema del prisionero que se puede resumir de la siguiente manera.
Dos individuos sospechosos de haber cometido un robo son detenidos por al policía
que los lleva ante el juez, el cual los interroga separadamente.
Cada uno puede callar o denunciar a su cómplice; los dos se
encuentran ante las siguientes posibilidades:
Callar y salir libre si el otro hace lo mismo;
Callar y ser condenado si el otro escoge denunciarlo;
Denunciar al otro y salir libre, ganándose una recompensa si
el otro se calla.
MÉTODO HÍBRIDO
La metodología híbrida de investigación, es decir, la
combinación de métodos cuantitativos y cualitativos en el
mismo trabajo, es una aproximación muy utilizada en varios
campos, por ejemplo en educación y en sociología. Sin embargo, la atención dedicada
a la aplicación y a los beneficios de los métodos híbridos en dirección de empresas es
muy baja con relación a otras áreas. El propósito de este trabajo es describir las
características principales de esta aproximación metodológica (principalmente los
tipos de disenos, propósitos y ventajas), contribuyendo a su difusión entre los
investigadores en dirección de empresas. Además, se ha llevado a cabo una revisión
de la literatura sobre el uso de los métodos híbridos en la revista
Cuadernos de Economía y Dirección de la Empresa (CEDE), examinando el peso de
los artículos híbridos y sus principales características..
MODELO DE TRASNPORTE Y LOCALIZACION. TÉCNICA DE
MONTECARLO
La simulación Monte Carlo es una técnica matemática computarizada que
permite tener en cuenta el riesgo en análisis cuantitativos y tomas de decisiones. Esta
técnica es utilizada por profesionales de campos tan dispares como los de finanzas,
gestión de proyectos, energía, manufacturación, ingeniería, investigación y desarrollo,
seguros, petróleo y gas, transporte y medio ambiente.
La simulación Monte Carlo ofrece a la persona responsable de tomar las
decisiones una serie de posibles resultados, así como la probabilidad de que se
produzcan según las medidas tomadas. Muestra las posibilidades extremas —los
resultados de tomar la medida más arriesgada y la más conservadora— así como
todas las posibles consecuencias de las decisiones intermedias.
Los científicos que trabajaron con la bomba atómica utilizaron esta técnica
por primera; y le dieron el nombre de Monte Carlo, la ciudad turística de Mónaco
conocida por sus casinos. Desde su introducción durante la Segunda Guerra Mundial,
la simulación Monte Carlo se ha utilizado para modelar diferentes sistemas físicos y
conceptuales.
Cómo funciona la simulación Monte Carlo
La simulación Monte Carlo realiza el análisis de riesgo con la creación de
modelos de posibles resultados mediante la sustitución de un rango de valores —una
distribución de probabilidad— para cualquier factor con incertidumbre inherente.
Luego, calcula los resultados una y otra vez, cada vez usando un grupo diferente de
valores aleatorios de las funciones de probabilidad. Dependiendo del número de
incertidumbres y de los rangos especificados, para completar una simulación Monte
Carlo puede ser necesario realizar miles o decenas de miles de recálculos. La
simulación Monte Carlo produce distribuciones de valores de los resultados posibles.
El análisis de riesgo se puede realizar cualitativa y cuantitativamente. El
análisis de riesgo cualitativo generalmente incluye la evaluación instintiva o “por
corazonada” de una situación, y se caracteriza por afirmaciones como “Eso parece
muy arriesgado” o “Probablemente obtendremos buenos resultados”. El análisis de
riesgo cuantitativo trata de asignar valores numéricos a los riesgos, utilizando datos
empíricos o cuantificando evaluaciones cualitativas. Vamos a concentrarnos en el
análisis de riesgo cuantitativo
Mediante el uso de distribuciones de probabilidad, las variables pueden
generar diferentes probabilidades de que se produzcan diferentes resultados. Las
distribuciones de probabilidad son una forma mucho más realista de describir la
incertidumbre en las variables de un análisis de riesgo. Las distribuciones de
probabilidad más comunes son:
Normal – O “curva de campana”. El usuario simplemente define la media o
valor esperado y una desviación estándar para describir la variación con respecto a la
media. Los valores intermedios cercanos a la media tienen mayor probabilidad de
producirse. Es una distribución simétrica y describe muchos fenómenos naturales,
como puede ser la estatura de una población. Ejemplos de variables que se pueden
describir con distribuciones normales son los índices de inflación y los precios de la
energía.
Lognormal – Los valores muestran una clara desviación; no son simétricos
como en la distribución normal. Se utiliza para representar valores que no bajan por
debajo del cero, pero tienen un potencial positivo ilimitado. Ejemplos de variables
descritas por la distribución lognormal son los valores de las propiedades
inmobiliarias y bienes raíces, los precios de las acciones de bolsa y las reservas de
petróleo.
Uniform – Todos los valores tienen las mismas probabilidades de producirse;
el usuario sólo tiene que definir el mínimo y el máximo. Ejemplos de variables que
se distribuyen de forma uniforme son los costos de manufacturación o los ingresos
por las ventas futuras de un nuevo producto.
Triangular – El usuario define los valores mínimo, más probable y máximo.
Los valores situados alrededor del valor más probable tienen más probabilidades de
producirse. Las variables que se pueden describir con una distribución triangular son
el historial de ventas pasadas por unidad de tiempo y los niveles de inventario.
PERT – El usuario define los valores mínimo, más probable y máximo, como
en la distribución triangular. Los valores situados alrededor del más probable tienen
más probabilidades de producirse. Sin embargo, los valores situados entre el más
probable y los extremos tienen más probabilidades de producirse que en la
distribución triangular; es decir, los extremos no tienen tanto peso. Un ejemplo de
uso de la distribución PERT es la descripción de la duración de una tarea en un
modelo de gestión de un proyecto.
Discrete – El usuario define los valores específicos que pueden ocurrir y la
probabilidad de cada uno. Un ejemplo podría ser los resultados de una demanda
legal: 20% de posibilidades de obtener un veredicto positivo, 30% de posibilidades de
obtener un veredicto negativo, 40% de posibilidades de llegar a un acuerdo, y 10% de
posibilidades de que se repita el juicio.
Durante una simulación Monte Carlo, los valores se muestrean aleatoriamente
a partir de las distribuciones de probabilidad introducidas. Cada grupo de muestras se
denomina iteración, y el resultado correspondiente de esa muestra queda registrado.
La simulación Monte Carlo realiza esta operación cientos o miles de veces, y el
resultado es una distribución de probabilidad de posibles resultados. De esta forma,
la simulación Monte Carlo proporciona una visión mucho más completa de lo que
puede suceder. Indica no sólo lo que puede suceder, sino la probabilidad de que
suceda.
La simulación Monte Carlo proporciona una serie de ventajas sobre el
análisis determinista o “estimación de un solo punto”:
Resultados probabilísticos. Los resultados muestran no sólo lo que puede
suceder, sino lo probable que es un resultado.
Resultados gráficos. Gracias a los datos que genera una simulación Monte
Carlo, es fácil crear gráficos de diferentes resultados y las posibilidades de que
sucedan. Esto es importante para comunicar los resultados a otras personas
interesadas.
Análisis de sensibilidad. Con sólo unos pocos resultados, en los análisis
deterministas es más difícil ver las variables que más afectan el resultado. En la
simulación Monte Carlo, resulta más fácil ver qué variables introducidas tienen
mayor influencia sobre los resultados finales.
Análisis de escenario. En los modelos deterministas resulta muy difícil
modelar diferentes combinaciones de valores de diferentes valores de entrada, con el
fin de ver los efectos de situaciones verdaderamente diferentes. Usando la simulación
Monte Carlo, los analistas pueden ver exactamente los valores que tienen cada
variable cuando se producen ciertos resultados. Esto resulta muy valioso para
profundizar en los análisis.
Correlación de variables de entrada. En la simulación Monte Carlo es posible
modelar relaciones interdependientes entre diferentes variables de entrada. Esto es
importante para averiguar con precisión la razón real por la que, cuando algunos
factores suben, otros suben o bajan paralelamente.
Una ventaja de la simulación Monte
Carlo es el uso del muestreo Latino
Hipercúbico, que muestrea con mayor precisión
a partir de un rango completo de funciones de
distribución.
MODELO DE TRANSPORTE Y LOCALIZACION
Es una técnica de aplicación de la programación lineal, un enfoque
cuantitativo que tiene como objetivo encontrar los medios menos costosos (óptimos)
para embarcar abastos desde varios orígenes (fábricas, almacenes o cualquier otro de
los puntos desde donde se embarcan los bienes) hacia varios destinos (cualquiera de
los puntos que reciben bienes). En los problemas de localización, este método se
puede emplear para el análisis de la mejor ubicación de un nuevo centro, de varios a
la vez, y en general, para cualquier reconfiguración de la red.
Para utilizar el método de transportación hay que considerar los siguientes pasos:
1.Los puntos de origen y la capacidad o abasto por período, para cada uno.
2.Los puntos de destino y la demanda por período para cada uno.
3.El costo de embarque por una unidad desde cada origen hacia cada destino.
El primer paso en el procedimiento de este tipo de problema es establecer
una matriz de transportación, la cual tiene como objetivo resumir de manera
provechosa y concisa todos los datos relevantes y continuar los cálculos
del algoritmo.
Para crear la matriz de transportación deben seguirse los siguientes pasos:
1.Crear una fila que corresponda a cada planta (existente o nueva) que se este
considerando y crear una columna para cada almacén.
2.Agregar una columna para las capacidades de las plantas y una fila para las
demandas de los almacenes, e insertar después sus valores numéricos
específicos.
3.Cada celda que no se encuentre en la fila de requisitos ni en la columna de
capacidad representa una ruta de embarque desde un aplanta hasta un almacén.
Insertar los costos unitarios en la esquina superior derecha de cada una de esas
celdas.
En muchos problemas reales, a veces sucede que la capacidad excede a los
requisitos unidades, se agrega una columna (un almacén ficticio) con una demanda
de unidades y los costos de embarque en las nuevas celdas creadas son igual a $0,
pues en realidad esos embarques no se realizan, por lo que representan capacidad de
planta no utilizada. Igualmente, si los requerimientos exceden a la capacidad por
unidades, se agrega una fila más (una planta ficticia) con capacidad de unidades y
se asignan costos de embarque iguales a los costos faltantes de las nuevas celdas. Si
estos últimos costos no se conocen o su valor es el mismo para todos los almacenes,
se le asigna $0 por unidad a los costos de embarque de cada celda de la fila ficticia.
La solución óptima no resulta afectada, pues el mismo faltante de unidades se
necesita en todos los casos. Para lograr que la suma de todas las capacidades sea igual
a la suma de todas las demandas es que se añade una planta ficticia o un almacén
ficticio. Algunos paquetes de software los añaden automáticamente cuando el usuario
introduce los datos.
Cuando la matriz inicial
está conformada, el objetivo es
establecer el patrón de asignación
de menor costo que satisfaga todas
las demandas y agote todas las
capacidades. Este patrón se
determina mediante el método
de transporte, el cual garantiza que se hallará la solución óptima. La matriz inicial se
completa con una solución que cumpla dos condiciones: sea factible y satisfaga las
demandas de todos los almacenes y agote las capacidades de todas las plantas. Luego
se crea una nueva matriz con una solución nueva, teniendo ésta un costo total más
bajo. Este procedimiento iterativo se debe realizar hasta que no sea posible mejorar la
solución anterior, cuando esto ocurra la solución óptima se ha encontrado.
En este método es obligatorio que se cumpla que el número de embarques no iguales
a 0 en la solución óptima nunca sea mayor que la suma del número de planta y
almacenes menos 1.
En el caso que se emplee un paquete de software sólo se introducen los datos
correspondientes a la primera matriz.
Top Related