Investigacion de operaciones.pdf

download Investigacion de operaciones.pdf

of 164

Transcript of Investigacion de operaciones.pdf

  • 1. INTRODUCCION.............................................................................................................. 2 1.1 Qu es la Investigacin de Operaciones.......................................................................... 3 1.2 I.O como apoyo a la toma de decisiones......................................................................... 5 1.3 Problemas tipo en Investigacin Operativa..................................................................... 7

    2. OPTIMIZACIN............................................................................................................... 9 2.1 Introduccin .................................................................................................................... 9 2.2 Convexidad ................................................................................................................... 13 2.3 Optimos Locales y Globales ......................................................................................... 16 2.4 Condiciones de KuhnTucker....................................................................................... 18 2.5 Relajaciones .................................................................................................................. 20 2.6 Dualidad ........................................................................................................................ 30 2.7 Programacion Lineal ................................................................................................... 34

    3. GRAFOS ........................................................................................................................... 55 3.1 Introduccin .................................................................................................................. 55 3.2 Definiciones Basicas ..................................................................................................... 57 3.3 Conexidad. Clausura Transitiva. ................................................................................... 65 3.4 Multiplicacin Latina - Camino Hamiltoniano ............................................................. 72

    4. ESQUELETOS Y CAMINOS OPTIMALES ................................................................ 73 4.1 Medida de conexin de grafos ...................................................................................... 73 4.2 Esqueletos optimales.................................................................................................... 75 4.3 Caminos optimales Camino mnimo .......................................................................... 77

    5. REDES FLUJOS ........................................................................................................... 79 5.1 Corte mnimo flujo mximo....................................................................................... 80 5.2 Bases Para la Construccin de un Flujo Mximo.......................................................... 84 5.3 Algoritmo de Flujo Mximo ......................................................................................... 87

    6. INTRODUCCIN A LOS PROBLEMAS DE ORDENAMIENTOS ......................... 89 6.1 Conceptos Generales..................................................................................................... 90 6.2 Modelado de los problemas de ordenamientos ............................................................. 92 6.3 Mtodos de Camino Crtico .......................................................................................... 94

    7. PROCESOS ESTOCSTICOS...................................................................................... 101 7.1 Introduccin ................................................................................................................ 101 7.2 Procesos Estocsticos.................................................................................................. 108 7.3 Cadenas de Markov..................................................................................................... 111 7.4 Cadenas de Markov de Tiempo Contnuo................................................................... 125 7.5 Procesos de Poisson .................................................................................................... 129 7.6 Procesos de Nacimiento y Muerte............................................................................... 131 7.7 Sistemas de Colas........................................................................................................ 132 7.8 Propiedad PASTA....................................................................................................... 145

    8. SIMULACIN................................................................................................................. 146 8.1 Introduccin ................................................................................................................ 146 8.2 Modelos....................................................................................................................... 147 8.3 Simulacin de sistemas ............................................................................................... 148 8.4 Etapas en el proceso de Simulacin de Sistemas ........................................................ 149 8.5 Clasificacin de tipos de simulacin........................................................................... 151 8.6 Generacin de nmeros aleatorios .............................................................................. 153 8.7 Generacin de variables aleatorias.............................................................................. 158 8.8 Mtodo Montecarlo..................................................................................................... 161

  • Introduccin a la Investigacin de Operaciones

    2

    1. INTRODUCCION

    El objetivo del curso es que el estudiante aprenda a reconocer los problemas tipo de la Investigacin de Operaciones de modo que sepa a qu tcnico recurrir en cada caso, para un adecuado estudio y solucin del mismo.

    Como su nombre lo indica, la Investigacin de Operaciones (IO), o Investigacin Operativa, es la investigacin de las operaciones a realizar para el logro ptimo de los objetivos de un sistema o la mejora del mismo. Esta disciplina brinda y utiliza la metodologa cientfica en la bsqueda de soluciones ptimas, como apoyo en los procesos de decisin, en cuanto a lo que se refiere a la toma de decisiones ptimas y en sistemas que se originan en la vida real.

    Antecedentes histricos

    El trmino IO se utiliza por primera vez en el ao 1939 durante la 2da Guerra Mundial, especficamente cuando surge la necesidad de investigar las operaciones tcticas y estratgicas de la defensa area, ante la incorporacin de un nuevo radar, en oportunidad de los ataques alemanes a Gran Bretaa. El avance acelerado de la tecnologa militar hace que los ejecutivos y administradores militares britnicos deban recurrir a los cientficos, en pos de apoyo y orientacin en la planificacin de su defensa. El xito de un pequeo grupo de cientficos que trabajaron en conjunto con el ejecutivo militar a cargo de las operaciones en la lnea, deriv en una mayor demanda de sus servicios y la extensin del uso de la metodologa a USA, Canad y Francia entre otros.

    Sin embargo, el origen de la Investigacin Operativa puede considerarse como anterior a la Revolucin Industrial, aunque fue durante este perodo que comienzan a originarse los problemas tipo que la Investigacin Operativa trata de resolver. A partir de la Revolucin Industrial y a travs de los aos se origina una segmentacin funcional y geogrfica de la administracin, lo que da origen a la funcin ejecutiva o de integracin de la administracin para servir a los intereses del sistema como un todo. La Investigacin Operativa tarda en desarrollarse en el campo de la administracin industrial. El uso de la metodologa cientfica en la industria se incorpora al principiar los aos 50, a partir de la 2da Revolucin Industrial, propiciada por los avances de las Comunicaciones, y la Computacin, que sientan las bases para la automatizacin, y por sobre todo por el florecimiento y bienestar econmico de ese perodo. Los primeros desarrollos de esta disciplina (IO) se refirieron a problemas de ordenamiento de tareas, reparto de cargas de trabajo, planificacin y asignacin de recursos en el mbito militar en sus inicios, diversificndose luego, y extendindose finalmente a organizaciones industriales, acadmicas y gubernamentales.

    Algunas fechas, nombres y temas

    1759 Quesnay (ecnomo) - Programacin Matemtica 1874 Walras 1873 Jordan - Precursor de modelos lineales 1896 Minkowsky - Precursor de modelos lineales 1903 Farkas - Precursor de modelos lineales 189~ Markov - Precursor modelos dinmicos probabilsticos 192~ - Primer desarrollo de modelos de inventarios 191~ Erlang - Primeros estudios de lneas de espera

    1920-30 Koning y Egervary - Mtodos de asignacin (analticos) 1937 von Neuman - Teora de juegos y de preferencias 1939 Kantorovich - Problemas de distribucin

  • Introduccin a la Investigacin de Operaciones

    3

    2da guerra - Logstica estratgica para vencer al enemigo 1945 Finales 2da guerra - Logstica de distribucin de recursos de los

    aliados (Rand Corporation- Fuerza area norteamericana).

    1947 Dantzig, George - Mtodo simplex en base al trabajo de precursores, inicio a la Programacin Lineal.

    1950-60 - Bellman - Programacin dinmica. - Kuhn y Tucker - Programacin No Lineal. - Gomory - Programacin Entera. - Ford y Fulkerson - Redes de optimizacin. - Markowitz - Simulacin. - Arrow, Karloin, Scarf, Whitin - Inventarios.

    - Rafia - Anlisis de Decisiones. - Howard - Procesos Markovianos de Decisin. - Churchman, Ackoff, Arnoff - Orientacin a sistemas,

    generalizacin de la Investigacin Operativa.

    1970 y parte dcada 80

    - Receso en el uso de la Investigacin de Operaciones

    1985 en delante

    Reflorecimiento de la disciplina con el devenir del control automtico industrial, las microcomputadoras y las nuevas interfaces grficas que impulsan el desarrollo de los Sistemas Automatizados de Apoyo a la Toma de Decisiones, donde la Investigacin Operativa juega un papel preponderante.

    Actualmente IO se aplica al sector privado y pblico, a la industria, los sistemas de comercializacin, financieros, de transportes, de salud etc., en los pases desarrollados, en vas de y en los del tercer mundo.

    Existen varias asociaciones en todo el mund, que agrupan a personas (estudiantes, cientficos y profesionales) interesados por el estudio y aplicacin de la Investigacin Operativa. La mas grande de todas es INFORMS, de Estados Unidos de Norteamrica asociacin que nace de la unin de la ORSA = Operation Research Society of America, con 8 000 miembros y la TIMS = Institute of Managment Science con 6 000 miembros. Tambin existen Asociaciones Canadienses, Europeas, Latinoamericanas y Asiticas federadas en la IFORS, International Federation of Operation Research Societies. La Asociacin Latinoamericana de Investigacin de Operaciones, ALIO, conglomera a la mayor parte de las Asociaciones de America Central y Sur.

    Se publican decenas de revistas diferentes en todo el mundo. Existen programas de Posgrado (maestra y doctorado) en la especialidad, en Amrica y Europa.

    1.1 Qu es la Investigacin de Operaciones

    En esta disciplina se destacan las siguientes caractersticas esenciales:

    una fuerte orientacin a Teora de Sistemas, la participacin de equipos interdisciplinarios, la aplicacin del mtodo cientfico en apoyo a la toma de decisiones.

    En base a estas propiedades, una posible definicin es: la Investigacin Operativa es la aplicacin del mtodo cientfico por equipos interdisciplinarios a problemas que comprenden el control y gestin de sistemas organizados (hombre- mquina); con el objetivo de encontrar soluciones que sirvan mejor a los propsitos del sistema (u organizacin) como un todo, enmarcados en procesos de toma de decisiones.

  • Introduccin a la Investigacin de Operaciones

    4

    Los pasos a seguir en la aplicacin del mtodo cientfico (coincidentes con los de la Teora General de Sistemas) son, en su expresin mas simple:

    1.- Planteo y Anlisis del problema 2.- Construccin de un modelo 3.- Deduccin de la(s) solucion(es) 4.- Prueba del modelo y evaluacin de la(s) solucion(es) 5.- Ejecucin y Control de la(s) solucion(es)

    Otra definicin: la Investigacin Operativa es la aplicacin del mtodo cientfico a un mismo problema por diversas ciencias y tcnicas, en apoyo a la seleccin de soluciones, en lo posible ptimas.

    Observar que el problema es UNO SOLO, sin embargo existen maneras distintas de observar un mismo problema, dependiendo de los objetivos que se planteen para resolverlo.

    Ejemplo: Un proceso de decisin respecto a la poltica de inventarios en una organizacin.

    Existen 4 funciones administrativas que han dado lugar a departamentos cuyos objetivos son:

    Funcin Objetivo Produccin Maximizar la cantidad de bienes (servicios) producidos y minimizar el costo unitario de la produccin. Comercializacin Maximizar la cantidad vendida y minimizar el

    costo unitario de las ventas. Finanzas Minimizar el capital requerido para mantener

    cierto nivel del negocio. Personal Mantener la moral y la alta productividad entre los empleados.

    Con respecto al INVENTARIO y segn estos OBJETIVOS:

    El departamento de produccin necesita producir tanto como sea posible a un costo mnimo, lo que se logra fabricando un solo producto en forma continua, pues se logra mayor eficiencia y se minimiza el tiempo perdido por cambio de equipo, al cambiar de artculo. Con este procedimiento se logra un gran inventario con una lnea de productos pequea.

    El departamento de mercado tambin necesita un gran inventario, pero para vender tanto como sea posible, debe surtir de la mas amplia variedad de productos. Motivos de desencuentro con el departamento de produccin.

    Para minimizar el capital necesario para que el negocio marche, el departamento de Finanzas debe reducir la cantidad de dinero "comprometido", lo mas directo es reducir los inventarios. Se propone que los inventarios deben aumentar o disminuir en proporcin a la fluctuacin de las ventas.

    En contraposicin, cuando la ventas son bajas, ni produccin ni personal requieren disminuir la produccin, ni reducir personal. Personal le interesa mantener la produccin a un nivel tan constante como sea posible, ya que el despido implica repercusiones en la moral del personal , prdida de personal calificado, nuevos costos de formacin de nuevo personal cuando as se requiera. Esto se traduce en producir hasta el nivel del inventario cuando las ventas son bajas y agotarlo cuando stas son altas.

    Los objetivos enumerados y definidos de esta manera son dificiles de llevar a la prctica por su inconsistencia desde el punto de vista de la organizacin y del sistema en su conjunto. Es tarea y responsabilidad del ejecutivo (gerente) determinar

  • Introduccin a la Investigacin de Operaciones

    5

    una poltica de inventario que convenga a los intereses de toda la compana y no de una sola de las funciones subordinadas. La tarea de organizacin y gerenciamiento requiere que se considere al SISTEMA en su conjunto y sta es la esencia del trabajo gerencial. El ejecutivo debe decidir y para ello recurrir a algn mtodo. Le convendr recurrir a un Investigador de Operaciones, dado que supuestamente ste estar apto para utilizar la investigacin cientfica en apoyo a las decisiones que el ejecutivo deba tomar. Este apoyo se hace especialmente necesario cuando se trata de la bsqueda de soluciones ptimas a problemas que se originan en las organizaciones y servicios en general.

    1.2 I.O como apoyo a la toma de decisiones

    Los procesos de decisin pueden desarrollarse bajo situaciones deterministas, aleatorias, de incertidumbre, o de competencia (adversas). Estas situaciones se modelan a travs de sistemas que tambin sern de tipo deterministas, aleatorios, inciertos o basados en situaciones de competencia (adversas). Los sistemas determinsticos interpretan la realidad bajo el principio de que todo es conocido con certeza. Los sistemas basados en situaciones aleatorias, de incertidumbre o de competencia, asocian la incertidumbre a los fenmenos a analizar, incertidumbre que puede resultar de la variacin propia de los fenmenos (variaciones que eluden a nuestro control, pero que tienen un patrn especfico) o incertidumbre resultante de la propia inconsistencia de esos fenmenos.

    Aplicando el mtodo cientfico, el Investigador de Operaciones construir uno o mas modelos (representaciones) del sistema, con sus operaciones correspondientes y sobre l realizar su investigacin.

    Los modelos de IO se pueden representar con ecuaciones las que, aunque puedan resultar complejas, tienen una estructura muy sencilla:

    U = f (xi, yj) segn restricciones

    U es la utilidad o valor de ejecucin del sistema, xi son las variables no controlables, o dependientes, cuyos valores dependern de

    las interrelaciones y valores de las variables independientes. yj son las variables controlables, o independientes, con valores dados. f es una funcin en xi e yj.

    Frecuentemente se requieren una o ms ecuaciones o inecuaciones de las llamadas restricciones, para expresar el hecho de que algunas de las variables no controlables (o todas), pueden manejarse dentro de ciertos lmites. Por ejemplo, el tiempo de mquina asignado a la produccin de un producto siempre tendr valor positivo, y no ser mayor que el tiempo total disponible o asignado para tal fin; otro ejemplo, la suma del dinero presupuestado para cada departamento en un organizacin o industria no puede exceder la suma de dinero disponible, etc.

    Una vez obtenido el modelo, ste puede usarse para encontrar exacta o aproximadamente los valores ptimos de las variables no controlables, aquellas que producen la mejor ejecucin del sistema, es decir, la solucin al problema.

  • Introduccin a la Investigacin de Operaciones

    6

    EJEMPLO: Modelo de un problema agrcola.

    Supongamos que una empresa citrcola y el Estado pretenden hacer inversiones cuantiosas en el cultivo de naranja, limn , pomelo y mandarinas, con un doble objetivo: a) reducir el desempleo rural y b) aumentar las exportaciones para equilibrar la balanza de pagos.

    Segn estudios realizados, se maneja la siguiente informacin (datos inventados):

    Tipo de rbol

    Produccin promedio anual en kgs / rbol

    Area mnima por rbol (m2)

    Precio promedio

    mundial por kg

    Costo por rbol

    Horas-hombre de cuidado

    anual por rbol Naranja 150 4 $ 10 $ 2.00 36 Limn 200 5 $ 04 $ 0.50 72 Pomelo 050 3 $ 15 $ 1.00 50

    Mandarina 150 6 $ 07 $ 1.50 10

    1. Existe una extensin propicia para este tipo de cultivo de 250.000 m2 2. Se asegura el suministro de agua, aproximadamente por 20 aos (existencia de

    aguadas en la zona). 3. La financiera pretende hacer una inversin de 20 millones, pensando exportar

    toda su produccin a partir del 3er ao, que es cuando los rboles comienzan a ser productivos.

    4. El gobierno ha determinado que ste proyecto emplee al menos 200 personas ininterrumpidamente.

    Decisin a tomar: Cuntos rboles de naranja, limn, pomelo y mandarina, debern sembrarse con el objetivo de maximizar el valor de la futura exportacin anual? Formulacin del problema:

    Sean X1: nmero de rboles de naranja a ser sembrados. X2: nmero de rboles de limn a ser sembrados. X3: nmero de rboles de pomelo a ser sembrados. X4: nmero de rboles de mandarinas a ser sembrados.

    Valor medio de la export. anual: U = 10150X1 + 4200X2 + 1550X3 + 7150X4

    Segn las siguientes restricciones: Extensin de tierra: 4X1 + 5X2 + 3X3 + 6X4 250 000 m2 Inversin inicial: 2X1 + 0.5X2 + 1X3 + 1.50X4 $20 000 000 Desempleo mnimo: 36X1 + 72X2 + 50X3 + 10X4 2008360 (horas hombre/da/ao) Nmero de rboles a sembrar: X1 0, X2 0, X3 0, X4 0

    Obtuvimos un modelo del problema de tipo: Maximizar U = f ( ) Sujeto a: Restricciones

    Para ciertos tipos de funciones, como ser relaciones algebraicas elementales, si las restricciones no son demasiado numerosas, existen mtodos analticos que resuelven el problema ejemplo que hemos modelado como un problema de programacin matemtica lineal. Para problemas con gran nmero de restricciones, llamados de gran tamao, se han desarrollado tcnicas que los resuelven, la mayor de las veces en forma aproximada.

    La funcin f, puede consistir en un conjunto de reglas de cmputo (un algoritmo p. ej.); reglas lgicas que nos permiten calcular la utilidad (U) de ejecucin para

  • Introduccin a la Investigacin de Operaciones

    7

    cualquier conjunto especfico de valores de las variables tanto controlables como no controlables; generalmente obtenemos soluciones aproximadas a los valores ptimos de las variables correspondientes. Otras veces, nos vemos forzados a experimentar con el modelo y simularlo, seleccionando valores de las variables segn una distribucin de probabilidad, lo que nos permite calcular o0 muestrear un valor aproximado de la funcin U.

    Ejemplo que muestrea un valor aproximado de la confiabilidad de un grafo mediante el Mtodo Montecarlo:

    Una vez obtenido un valor (o muestra) de la funcin de utilidad, podemos especificar un procedimiento que permita seleccionar valores sucesivos (de prueba) de variables no controlables, de manera que converjan hacia una solucin ptima.

    Una SOLUCIN PTIMA es aquella que maximiza o minimiza (segn convenga) la medida de ejecucin de un modelo, sujeto a las condiciones y restricciones pertinentes al sistema. Muchas veces, independientemente del procedimiento utilizado, se busca una solucin mas ptima, o mejor dicho, mas cercana a la ptima. En consecuencia, la optimizacin produce la mejor solucin para el problema que se est modelando. La solucin ptima ser la mejor para el modelo en consideracin, ya que un modelo nunca es una representacin exacta del problema; en el mejor de los casos, el modelo es una "buena" representacin del problema, de ah que la solucin ptima o cercana a la ptima derivada de ese modelo, es una "buena" aproximacin a la solucin ptima y, por lo tanto, se supone que ser la mejor para el problema que se pretende resolver.

    1.3 Problemas tipo en Investigacin Operativa

    Desde sus comienzos la Investigacin de Operaciones se ha aplicado a una gran variedad de problemas; la gran mayora de ellos han sido de naturaleza tctica, mas que estratgica. Un problema es ms tctico que estratgico si cumple con las siguientes condiciones:

    1) su solucin puede modificarse o anularse fcilmente, tiene efecto de corta duracin;

    2) su solucin afecta a una parte menor de la organizacin; 3) los resultados deseados se consideran como proporcionados (obtenidos), sin que

    medie una seleccin de medios, fines, metas u objetivos a largo plazo.

    La planificacin de una empresa u organizacin, con sus metas y objetivos, es un problema ms estratgico que tctico. El minimizar los costos del transporte, en el que la minimizacin en s es el resultado conveniente, es considerado un problema ms tctico que estratgico.

    La aplicacin de la Investigacin Operativa a una amplia variedad de problemas tcticos, y la frecuente recurrencia de esos problemas, ha permitido identificar problemas tipo que se agrupan segn los modelos y procedimientos (tcnicas) similares para su resolucin. Esos problemas tipo son: asignacin de

    Funcin de Utilidad de la Confiabilidad de G

    cont := 0; Para n:= 1, N sortear G Si G conexo: con := cont + 1 fin para Conf (G) = cont / N.

  • Introduccin a la Investigacin de Operaciones

    8

    recursos escasos, ordenamiento, secuenciacin y coordinacin de tareas, lneas de espera, mantenimiento y reemplazo de equipos, inventarios, costos y tiempos, gestin de proyectos.

    Asignacin de recursos, Ordenamiento

    Los primeros desarrollos de la Investigacin Operativa se refirieron a problemas de asignacin de recursos, ordenamientos de tareas, reparto de cargas de trabajo, planificacin, todos con un objetivo preciso de optimizacin de la funcin econmica U en un mundo determinista. Entre las tcnicas de optimizacin citamos: la Programacin Lineal (se ver en el curso), No lineal, Los mtodos de ordenamiento, Programacin Dinmica, Combinatoria, algoritmos de teora de Grafos, etc. Un ejemplo clsico: determinar el nmero de piezas, de cada tipo, que debe producir un determinado taller, a fin de obtener el mximo beneficio. Existen varias mquinas, cada una de las cuales tiene determinadas propiedades y caractersticas, segn las categoras o partes de piezas a producir por cada una de ellas; por lo general se conoce la capacidad mxima del taller y el beneficio que se obtendr con cada categora de pieza producida.

    Lneas de espera, Reemplazo de equipos

    Estos temas se desarrollan en mundo aleatorio por lo general. Se estudian las esperas y retrasos ocurridos en el sistema, o las fallas en las instalaciones, su reparacin y posibles polticas de mantenimiento y/o reemplazo.

    Inventario, Costos y tiempos

    Se trata de la operacin mas simple, la de almacenar y/o mantener recursos; se estudia cunto y cundo adquirir. Muchos casos se resuelven modelndolos como lineas de espera.

    Gestin de proyectos

    El conjunto de tareas de un proyecto se modelan mediante un grafo, sobre el que se determinan cules son los tiempos y las tareas crticas ("cuellos de botellas") del proyecto. Tcnicas usadas: CPM-PERT, mtodo del Camino Crtico.

    Algunos de estos problemas, se estudiarn en el curso Introduccin a la Investigacin de Operaciones.

  • Introduccin a la Investigacin de Operaciones

    9

    2. OPTIMIZACIN

    2.1 Introduccin

    2.1.1 Motivos para estudiar Optimizacin Existe una enorme variedad de actividades en el mundo cotidiano que pueden ser

    tilmente descritas como sistemas, desde sistemas fsicos tales como una planta industrial hasta entidades tericas tales como los modelos econmicos. La operacin eficiente de esos sistemas usualmente requiere un intento por optimizar varios ndices que miden el desempeo del sistema. Algunas veces, esos ndices son cuantificados y representados como variables algebraicas. Entonces se deben encontrar valores para esas variables, que maximicen la ganancia o beneficio del sistema, o bien minimicen los gastos o prdidas. Se asume que las variables dependen de ciertos factores. Algunos de esos factores a veces estn bajo el control (al menos parcialmente) del analista responsable del desempeo del sistema.

    El proceso de administracin de los recursos escasos de un sistema se suele dividir en seis fases:

    i anlisis matemtico del sistema ii construccin de un modelo matemtico que refleja los aspectos importantes del

    sistema iii validacin del modelo iv manipulacin del modelo a fin de obtener una solucin satisfactoria, si no

    ptima v implementacin de la solucin seleccionada vi introduccin de una estrategia de control del desempeo del sistema despus de

    la implementacin efectuada. La cuarta fase, la manipulacin del modelo, es la que concierne a la teora de la

    optimizacin. Las otras fases son muy importantes en la administracin de cualquier sistema y probablemente requerirn mayor esfuerzo total que la fase de optimizacin. Sin embargo, en esta presentacin de la optimizacin se asumir que las dems fases fueron o sern resueltas aparte. Debido a que la teora de la optimizacin brinda este eslabn en la cadena de la administracin de sistemas constituye un cuerpo importante del conocimiento matemtico.

    2.1.2 El Alcance de la Optimizacin Una de las herramientas ms importantes de la optimizacin es la programacin

    lineal. Un problema de programacin lineal est dado por una funcin lineal de varias variables que debe ser optimizada (maximizada o minimizada) cumpliendo con cierto nmero de restricciones tambin lineales.

    El matemtico G.B. Dantzig desarroll un algoritmo llamado el mtodo simplex para resolver problemas de este tipo. El mtodo simplex original ha sido modificado a fin de obtener un algoritmo eficiente para resolver grandes problemas de programacin lineal por computadora.

  • Introduccin a la Investigacin de Operaciones

    10

    Por medio de la programacin lineal se pueden formular y resolver problemas de una gran variedad de campos del quehacer humano, entre los que se puede mencionar: asignacin de recursos en la planificacin de gobierno, anlisis de redes para planificacin urbana y regional, planificacin de la produccin en la industria, y la administracin de sistemas de transporte y distribucin. Por esto la programacin lineal es uno de los xitos de la moderna teora de la optimizacin.

    La programacin entera est relacionada con la resolucin de problemas de optimizacin en los cuales al menos algunas de las variables deben tomar slo valores enteros. Cuando todos los trminos son lineales se habla de programacin lineal entera.

    Muchos problemas de naturaleza combinatoria se pueden formular en trminos de programacin entera. Entre los ejemplos prcticos se puede citar: ubicacin de insumos, secuenciamiento de trabajos en lneas de produccin, balance de lneas de montaje, problemas de asignacin biunvoca, control de inventarios, y reemplazo de mquinas.

    Uno de los mtodos importantes para resolver esos problemas, debido a R.E. Gomory, se basa en parte, en el mtodo simplex antes mencionado. Otro mtodo es de naturaleza combinatoria y consiste en reducir el problema original a otros ms pequeos, y tal vez ms fciles, y partir el conjunto de soluciones posibles en subconjuntos ms pequeos que pueden ser analizados ms fcilmente. Este mtodo se llama branch and bound (ramificacin y acotacin) o branch and backtrack. Dos de las contribuciones importantes a ste mtodo las han hecho Balas y Dakin. Pese a las mejoras realizadas no existe an un mtodo unificado que sea eficaz para resolver problemas de programacin entera de tamao realista.

    Otra clase de problemas involucran la administracin de una red. Problemas de flujo de trfico, comunicaciones, distribucin de bienes, y planificacin de proyectos son generalmente de este tipo.

    Muchos de estos problemas se pueden resolver por los mtodos mencionados previamente (programacin entera o lineal). Sin embargo debido a que esos problemas usualmente tienen una estructura especial, se han desarrollado tcnicas especializadas ms eficientes para su resolucin. En este campo las mayores contribuciones se deben a Ford y Fulkerson; quienes desarrollaron el mtodo de etiquetado para maximizar el flujo de un producto a travs de una red y un mtodo para minimizar el costo de transportar una cantidad dada de producto a travs de una red. Esas ideas se pueden combinar con las de programacin entera para analizar toda una familia de problemas prcticos de redes.

    Algunos problemas se pueden descomponer en partes y se optimizan los procesos de decisin de stas. En algunas instancias es posible alcanzar el ptimo del problema original solamente descubriendo como optimizar esas partes constituyentes. Este proceso de descomposicin es muy potente, pues permite resolver una serie de problemas ms pequeos y fciles en vez de uno grande que podra ser intratable.

    Los sistemas para los cuales esta aproximacin brinda un ptimo vlido se llaman sistemas seriales multi-etapa. Una de las tcnicas ms conocidas para abordarlos fue bautizada programacin dinmica por R. E. Bellman, el matemtico que la desarroll,. Los sistemas seriales multietapa se caracterizan por un proceso que se realiza en etapas, como los procesos de manufactura. En vez de intentar optimizar alguna medida de desempeo viendo a todo el problema como una unidad, la

  • Introduccin a la Investigacin de Operaciones

    11

    programacin dinmica optimiza una etapa por vez a fin de producir un conjunto de decisiones ptimas para todo el proceso.

    Una variada gama de problemas tales como inversin de capital, confiabilidad de mquinas, y anlisis de redes se pueden ver como sistemas seriales multietapa; de modo que la programacin dinmica tiene una amplia aplicabilidad.

    En la formulacin de muchos problemas de optimizacin no se puede hacer la hiptesis de linealidad que caracteriza a la programacin lineal. No existen procedimientos generales para problemas no lineales. Se han desarrollado un gran nmero de algoritmos especiales para tratar casos particulares. Muchos de esos procedimientos se basan en la teora matemtica relacionada con el anlisis de la estructura de tales problemas. Esta teora se llama generalmente optimizacin clsica. Una de las principales contribuciones modernas a esta teora fue hecha por Kuhn y Tucker quienes desarrollaron lo que se conoce como las condiciones de Kuhn Tucker.

    La coleccin de tcnicas desarrolladas por esta teora se llama programacin no lineal. Pese a que muchos problemas de programacin no lineal son muy difciles de resolver, hay cierto nmero de problemas prcticos que pueden ser formulados de manera no lineal y resueltos por los mtodos existentes. Esto incluye el diseo de entidades tales como transformadores elctricos, procesos qumicos, condensadores de vapor y filtros digitales.

    2.1.3 La Optimizacin como una rama de las Matemticas Se puede ver, por lo dicho en la seccin anterior, que la teora de la optimizacin

    es matemtica por naturaleza. Tpicamente involucra la maximizacin o minimizacin de una funcin (a veces desconocida) que representa el desempeo de algn sistema. Esto se resuelve encontrando los valores de las variables (cuantificables y controlables) que hacen que la funcin alcance su mejor valor. A fin de entender como operan los algoritmos se requieren conocimientos de lgebra lineal y clculo diferencial con varias variables.

    Algunos de los problemas de la teora de optimizacin se pueden resolver por las tcnicas clsicas del clculo avanzado (tales como mtodos Jacobianos y el uso de multiplicadores de Lagrange). Sin embargo, la mayora de los problemas de optimizacin no satisfacen las condiciones necesarias para ser resueltos de esta manera. Muchos de los otros problemas, pese a poder ser tratados con las tcnicas clsicas, se resuelven ms eficazmente si se utilizan mtodos diseados para cada caso particular. A travs de la historia de las matemticas se ha construido una coleccin de tales tcnicas. Algunas han sido olvidadas y reinventadas, otras recibieron poca atencin hasta que las computadoras las hicieron utilizables.

    El grueso de material al respecto es de origen reciente debido a que muchos de los problemas, tales como el flujo de trfico, recin ahora cobran inters y tambin debido al gran nmero de investigadores disponibles actualmente para analizar tales problemas. Cuando ese material es catalogado dentro de un cuerpo autocontenido de conocimientos el resultado es una nueva rama de las matemticas aplicadas.

  • Introduccin a la Investigacin de Operaciones

    12

    2.1.4 Conceptos Bsicos de Optimizacin Esta seccin introduce algunos de los conceptos bsicos de optimizacin que se utilizan a lo largo del presente compendio. Cada concepto se ilustra por medio del siguiente ejemplo.

    El problema es:

    Maximizar: f (x1,x2) (1.1)

    sujeto a: h1 (x1,x2) 0 (1.2) x1 0 (1.3) x2 0 (1.4)

    Este es un problema tpico en la teora de optimizacin: la maximizacin (o minimizacin) de una funcin real de variables reales (a veces una sola variable) sujeta a un nmero de restricciones (a veces este nmero es cero).

    La funcin f se llama funcin objetivo, x1 y x2 se llaman variables independientes o variables decisionales. El problema es encontrar valores reales para x1 y x2, que satisfagan las restricciones (1.2), (1.3) y (1.4), los cuales introducidos en (1.1) hagan que f (x1,x2) tome un valor no menor que para cualquier otro par x1,x2.

    En la figura siguiente se muestran tres contornos de la funcin objetivo.

    h1 (x1,x2) = 0

    x1

    x2 f (x1,x2) = 0.25

    f (x1,x2) = 0.50

    f (x1,x2) = 1.00

    (1,0)

    (0,1)

    S

    La funcin objetivo tiene el mismo valor en todos los puntos de cada lnea, de modo que los contornos pueden asimilarse a las isobaras (o isotermas) de un mapa climtico.

    No es difcil ver que la solucin del problema es:

    ( , ) ( , )X x x= =1 2 1 0

  • Introduccin a la Investigacin de Operaciones

    13

    Esto significa que

    f X f X X S ( ) ( ) , (1.5)

    Cuando una solucin X S satisface (1.5) se llama solucin ptima, y en este caso solucin mxima (tambin solucin optimal o maximal). Si el smbolo en (1.5) fuera , X sera una solucin mnima. Adems, f ( X ) se llama valor ptimo, y no debe ser confundido con solucin ptima.

    En la figura se observa que se podran obtener valores mayores de f eligiendo ciertos x1, x2 fuera de S.

    Cualquier par ordenado de nmeros reales se llama solucin del problema y el valor correspondiente de f se llama valor de la solucin. Una solucin X tal que X S se llama solucin factible, en tanto que S = {(x1,x2) : h (x1,x2) 0, x1 0, x2 0}, que generalmente es una regin conexa, se llama regin factible.

    2.2 Convexidad Se revn a continuacin las propiedades ms importantes de los conjuntos convexos y de las funciones convexas, tales conjuntos y funciones juegan un rol muy importante en la optimizacin por dos motivos: Cuando se tienen funciones y conjuntos convexos se puede identificar con seguridad los llamados ptimos globales. Muchas operaciones y transformaciones conservan la convexidad, por lo que se puede construir funciones y conjuntos convexos ms complicados a partir de los ms sencillos. Definicin: Combinacin Convexa.

    Dados (x,y) n, una combinacin convexa de ellos es cualquier punto de la forma: z = x + (1) y

    con | 0 1. Notas: Si 0 y 1, se dice que z es una combinacin convexa estricta (o propia). La interpretacin geomtrica es que z es un punto del segmento de recta determinado por (x,y). Definicin: Conjunto Convexo. S n es un conjunto convexo si

    [x + (1 ) y] S

    (x,y) S, : 0 1

  • Introduccin a la Investigacin de Operaciones

    14

    conjunto convexo conjunto no convexo

    Es decir que S es un conjunto convexo si contiene a todos los segmentos de recta que se pueden formar con los puntos que le pertenecen. Definicin: Funcin Convexa (en un conjunto convexo). Sea S n, un conjunto convexo. La funcin f: S es convexa en S si:

    f [x + (1) y] f (x) + (1) f (y) (x,y) S, : 0 1

    Si S = n, se dice que f es convexa.

    f

    xx y

    f(x)

    f(y)

    (1)f(x) + f(y)f [ (1)x + y]

    2.2.1 Composicin de conjuntos y funciones convexas La importancia de las funciones y conjuntos convexos radica en que las condiciones necesarias para que una solucin sea un ptimo local se convierten en condiciones suficientes para que sea ptimo global, cuando las funciones y conjuntos en cuestin son convexos.

    Sean S y T conjuntos convexos, y f una funcin convexa. Entonces los siguientes conjuntos tambin son convexos: i S = {x| x S} iii S +T = {x+y| x S, y T} v { (x,) | f(x) } ii S T iv {x| f(x) } Sean f y g funciones convexas en un conjunto convexo S, y 0. Entonces las siguientes funciones tambin son convexas en S. i h1(x) = f(x) + g(x) ii h2(x) = f(x) iii h3(x) = max{f(x), g(x)}

    Sean fi : Ii , (i = 1,...,n) funciones convexas en el intervalo Ii .

  • Introduccin a la Investigacin de Operaciones

    15

    f x f xii

    n

    ( ) ( )==

    1

    es una funcin convexa en I = {x n | xi Ii}

    2.2.2 Funciones convexas reales, de una sola variable Para poder utilizar los resultados anteriormente expuestos es necesario poder reconocer las funciones convexas. Por tal motivo, en primer lugar se analizarn las funciones de una sola variable. Una funcin f : S es convexa en el conjunto convexo S, sii: f((1) x + y) (1) f(x) + f(y) x, y S, con 0 o bien 1. Una funcin diferenciable f : I con I es convexa sii: f(y) f(x) + f(x) (yx) x,y I Una funcin diferenciable f en un intervalo I es convexa sii f es no decreciente. Una funcin f diferenciable hasta el segundo orden en un intervalo I es convexa sii f 0 en I.

    2.2.3 Funciones convexas en n Una funcin diferenciable f en un conjunto convexo S es convexa sii f(y) f(x) +f (x) (yx), x,y S. Una funcin f diferenciable hasta el segundo rden en S n convexo y abierto es

    convexa sii la matriz de derivadas segundas:

    ji xx

    f

    2 es semidefinida positiva en

    n.

    Proposicin: desigualdad de Jensen

    Sea RCf : una funcin convexa sobre un conjunto convexo y 0,1, ii mCx con

    =

    =

    m

    ii

    11 .

    Entonces se cumple que: ==

    m

    iii

    m

    iii xfxf

    11)()(

    Demostracin por induccin en m:

    Paso Base (m = 2): Sean 1/0 2121 =+ y Cxx 21, .

    )()1()())1(()( 211121112211 xfxfxxfxxf ++=+

    f es convexa en 121 =+

  • Introduccin a la Investigacin de Operaciones

    16

    Paso Inductivo:

    (Hiptesis) 1,)()(11

    ==

    mkxfxfk

    iii

    k

    iii

    (Tesis) ==

    m

    iii

    m

    iii xfxf

    11)()(

    Demostracin:

    =

    +=+=

    =

    ==

    1

    1

    1

    11 )1()1()()(

    m

    i m

    iimmm

    m

    iiimm

    m

    iii

    xxfxxfxf

    =

    +=++=1

    1))1()1()()()1()())1((

    m

    i m

    iimmmmmmmmm

    xxfyfxfyxf

    = =

    =

    +1

    1 1)()()1()1()(

    m

    i

    m

    iiii

    m

    immm xfxfxf

    2.3 Optimos Locales y Globales En este captulo se estudian las propiedades de las soluciones ptimas. Se brinda adems un conjunto de condiciones necesarias y suficientes para que una solucin sea local o globalmente ptima.

    2.3.1 Optimos locales y globales, direcciones factibles y direcciones de descenso La siguiente es la forma general de un problema de optimizacin:

    Fx

    xfG :a sujeto

    )( Min )(

    y los problemas de programacin matemtica, tienen la forma siguiente:

    Xx

    xg

    xf

    M0)(

    :a sujeto)(Min

    )(

    Todos los problemas de optimizacin pueden ser escritos en la forma general (G). Se supondr que F n y f : F , donde F es la regin factible y f la funcin objetivo.

    f convexa en C

    H.I.

  • Introduccin a la Investigacin de Operaciones

    17

    En un problema de programacin matemtica se supone que

    X n, g : X m y f : X . En el problema (M) la regin factible es el conjunto: { }0)( xgXx Definicin: x F es un ptimo global de (G) sii f x f x x F( ) ( ) . Definicin: x F es un ptimo local de (G) sii > 0, tal que se cumple que f x f x( ) ( ) x F, con x x < . La mayora de los mtodos para hallar un ptimo son por bsqueda direccional: partiendo de un punto de F, se define una direccin de bsqueda y se determina un nuevo punto a lo largo de sta. Por ese motivo son de inters los conceptos de direccin factible y direccin de descenso.

    Definicin: d es una direccin factible de (G) en x F si >0 0 tal que x d F+ (0,0) Definicin: d es una direccin de descenso [o ascenso] de la funcin f en x F si >0 0 tal que

    f x d f x( ) ( )+ ] Observacin: Sea f una funcin diferenciable en x F . Si

  • Introduccin a la Investigacin de Operaciones

    18

    Corolario: Si la funcin objetivo f de (G) es diferenciable, y x es un punto interior de F que cumple ser ptimo local, entonces: =f x( ) 0 . Teorema: Si la funcin objetivo f, y la regin factible F de (G) son convexas y adems no existe una direccin factible de descenso en x F , entonces x es un ptimo global del problema (G). Ntese que el teorema precedente establece una condicin suficiente de optimalidad para un problema en que la funcin objetivo y la regin factible son convexas. Teorema: Sean f y F convexas en el problema (G), con f diferenciable. Si existe x F tal que f x d( ) 0 para todas las direcciones factibles d en x , entonces x es un ptimo global de (G).

    2.4 Condiciones de KuhnTucker Para problemas de programacin matemtica tambin se pueden aplicar los teoremas anteriores. Para este tipo de problemas existen adems condiciones de optimalidad especiales, las llamadas condiciones de KuhnTucker. Estas sern introducidas a travs de una analoga con la mecnica. Considrese el siguiente problema:

    =Xx

    mixg

    xf

    Mi ,...,1,0)(

    :a sujeto)(Min

    )(

    Los ptimos locales de (M) pueden ser vistos como las posiciones de equilibrio estable de una partcula que se mueve en un campo de fuerza cuyo potencial es f, en una regin X, y condicionada a moverse en el interior de una regin delimitada por ciertas paredes : { }0)( == xgxV ii . Supngase que la partcula est en reposo en x , punto interior de X. La partcula est expuesta a fuerzas de reaccin ri perpendiculares a las paredes y orientadas hacia el interior, como los gradientes gi son tambin perpendiculares a las paredes, pero orientados hacia el exterior, las fuerzas reactivas de las paredes pueden expresarse como: r g xi i i= ( ) para parmetros i 0, suponiendo que g xi ( ) 0. Las fuerzas reactivas slo actan en las paredes que estn en contacto con la partcula, es decir que i 0solamente cuando g xi ( ) = 0 . Esto se expresa en la forma siguiente: i ig x i m( ) , ,...,= =0 1 . Finalmente, para que la partcula est en reposo se exige balance de las fuerzas:

    + ==

    f x g xi ii

    m

    ( ) ( ( )) 01

  • Introduccin a la Investigacin de Operaciones

    19

    El resumen de estas exigencias son las Condiciones de Kuhn Tucker: i g x( ) 0, es decir: que el punto est en la regin factible. ii i ig x i m( ) , , ,= =0 1 , fuerza slo en las paredes activas. iii i 0, las fuerzas apuntan hacia el interior de la regin factible.

    iv + =f x g xi i( ) ( ) 0, equilibrio de fuerzas.

    Las condiciones de Kuhn Tucker son necesarias para que un punto x interior a X, sea ptimo local, salvo que ocurran casos excepcionales, por ejemplo: =g xi ( ) 0, o que f x( ) no pueda ser balanceado por las fuerzas reactivas, como ocurre en la figura siguiente:

    g (x)1g

    2(x) = 0= 0

    g (x)1

    g2

    (x)

    f(x)

    Estos casos excepcionales se evitan imponiendo constraint qualifications, que son condiciones que deben ser satisfechas por las restricciones del problema. Muchas de ellas se expresan en el punto ptimo potencial, por lo que no son muy tiles en la prctica, ya que no se sabe cual es el ptimo. Suele ser ms til imponer las siguientes: i que las restricciones sean lineales. ii que las gi sean convexas y exista un x tal que g x i mi ( ) , ,...,< =0 1

    En resumen, se formula el: Teorema de Kuhn Tucker: Sea x X un punto interior que es ptimo local del problema (M), y sean f y gi funciones diferenciables. Si se cumplen las constraint qualifications apropiadas existe m que satisface las siguientes condiciones de Kuhn Tucker:

    i g x( ) 0 ii i ig x i m( ) , , ,= =0 1 iii 0

    iv + =f x g xi i( ) ( ) 0

  • Introduccin a la Investigacin de Operaciones

    20

    El siguiente es un caso particular del Teorema anterior: Teorema: Sea f una funcin diferenciable y x una solucin ptima de:

    0:a sujeto)(Min

    )(x

    xfP

    Entonces i x 0

    ii =f x x( ) 0 iii f x( ) 0

    En caso de tener restricciones de igualdad, las fuerzas reactivas de la analoga mecnica anterior pueden apuntar hacia ambos lados de las paredes, y en consecuencia desaparece la exigencia de i 0. Adems, todas las paredes son tocadas por la partcula en todos los puntos factibles, por lo que i ig x( ) = 0 tambin desaparece. El teorema correspondiente se enuncia: Teorema: Sea x un ptimo local del problema

    =

    =

    0)(:a sujeto)(Min

    )(xg

    xfM

    y sean las gi tales que g xi ( ) son linealmente independientes para i m= 1,...,

    Entonces m tal que + =f x g xi i( ) ( ) 0

    2.5 Relajaciones Cuando se enfrenta un problema difcil de optimizacin, es posible reformularlo de un modo ms fcil por medio de una relajacin; sta nueva versin se llama problema relajado

    2.5.1 Generalidades sobre relajaciones Considrense los siguientes problemas:

    Fx

    xfG :a sujeto

    )( Min )( y

    L

    L

    L

    Fx

    xfG :a sujeto

    )(Min )(

    Definicin: Se dice que (GL) es una relajacin de (G) sii: i) FL F, ii) f L(x) f (x), x F.

  • Introduccin a la Investigacin de Operaciones

    21

    FFL

    ff

    L

    Observacin: Si f est definida fuera de F, no es necesario que se cumpla f L f para los x exteriores al dominio F.

    Teorema 1: Sea (GL) una relajacin de (G), xL y x soluciones optimales de (GL) y (G) respectivamente x F.

    En tales condiciones se cumple: fL( xL) f ( x ) f ( xL).

    Prueba: fL( xL) fL ( x ) por ser xL solucin optimal de (GL). fL ( x ) f ( x ) por la definicin de relajacin. f ( x ) f ( xL) por ser x solucin optimal de (G).

    Observacin: En el teorema anterior se supone que existe por lo menos un valor de xF en el cual la funcin f alcanza un mnimo. Para formular el teorema de un modo ms general debera decir inf{f(x):xF} en vez de f( x ), y eventualmente lo mismo para fL( xL). De esa manera se pierde, lamentablemente, algo de claridad. Supondremos, por lo tanto, a partir de ahora, que siempre existe un valor xF que es solucin optimal de (G). Corolario 1.1:

    Sean (GL) una relajacin de (G), y xL una solucin optimal de (GL) que cumple las siguientes condiciones:

    i xL F,

    ii fL( xL) = f ( xL) En tales condiciones se cumple que xL es tambin solucin optimal de (G).

    Prueba: Para que xL sea solucin optimal de (G) debe, primero, ser una solucin factible, lo cual es cierto por i. Para demostrar que brinda un valor de f menor o igual que el de cualquier otra solucin factible; sea x una solucin factible cualquiera de (G).

  • Introduccin a la Investigacin de Operaciones

    22

    f(x) fL(x) por ser (GL) una relajacin de (G). fL(x) fL( xL) por ser xL una solucin optimal de (GL). fL( xL) = f( xL) por hiptesis ii luego: f(x)f( xL).

    Entre las relajaciones ms tpicas se puede citar: ignorar la exigencia de que algunas variables sean nmeros enteros ignorar algunas restricciones de positividad.

    2.5.2 Relajacin Lagrangeana. En los problemas de Programacin Matemtica, que son del tipo:

    =

    Xxmixg

    xf

    Mi ,,1,0)(

    :a sujeto)( Min

    )(

    se usa comnmente la llamada relajacin lagrangeana que consiste en agregar la variable m y construir el siguiente problema:

    +=

    Xx

    xgxf

    M

    m

    jjjx

    :a sujeto

    )()( Min

    )(1

    Los valores j se llaman multiplicadores de Lagrange o parmetros lagrangeanos. Atencin: los multiplicadores de Lagrange no son variables sino parmetros, es decir que por cada tenemos un problema de optimizacin (M) en la variable x. f x f x g x f x g xT i i ( ) ( ) ( ) ( ) ( )= + = + es la llamada funcin lagrangeana de (M) y se escribe L(x,). Teorema 2:

    0 (M) es una relajacin de (M). Prueba:

    Deben cumplirse las dos condiciones de la definicin de relajacin: La regin de soluciones factibles de M es F = {xX: g(x)0}, que es un

    subconjunto de X; adems la regin de soluciones factibles de M es F = X; por lo tanto: F F.

    Sea xF, entonces gi(x)0, i.

  • Introduccin a la Investigacin de Operaciones

    23

    Si 0, es decir: i 0, i, se cumple que i ii

    m

    g x( )=

    1

    0, por lo tanto,

    f x f x g x f xi ii

    m

    ( ) ( ) ( ) ( )= + =

    1

    . En consecuencia: M es una relajacin de M

    En el caso de problemas con restricciones de igualdad

    ==

    Xxxg

    xf

    M0)(

    :a sujeto)( Min

    )(

    La relajacin lagrangeana se construye de forma anloga. Teorema 3:

    (M) es una relajacin de (M=) para cualquier m. Prueba:

    Se deduce a partir de la prueba del teorema anterior.

    Teorema 4: (Teorema fundamental de la Relajacin Lagrangeana) Si x es una solucin optimal de M que cumple:

    i g( x ) 0. ii igi( x ) = 0, i=1...m. iii 0. entonces x es tambin una solucin optimal de M.

    Prueba: M es una relajacin de M debido a la condicin iii y por el Teorema 2. x es solucin optimal de M por hiptesis.

    x F debido a la condicin i.

    f x f x g x f xi ii

    m

    ( ) ( ) ( ) ( )= + ==

    1

    por la condicin ii.

    De todo lo anterior, y del Corolario 1.1 se deduce la tesis.

    La condicin ii se llama condicin de complementariedad porque exige que i = 0, o bien: que gi ( x ) = 0.

  • Introduccin a la Investigacin de Operaciones

    24

    Ejemplo 1: Considrese el siguiente problema:

    ( )

    =

    =

    =

    =

    njx

    bxa

    xf

    P

    j

    n

    jjj

    n

    j

    x j

    ,...,1 ,0

    :a sujeto

    )( Min

    )(

    1

    12

    2

    Se supone que b y aj (j = 1,...,n) son positivos. Se comienza por escribir la primera restriccin de la siguiente forma: b a xj j

    j

    n

    =

    1

    0 .

    A continuacin se introduce un parmetro lagrangeano (pues hay solamente una restriccin) y se obtiene el problema lagrangeano relajado (P):

    =

    +==

    njx

    bxaxf

    P

    j

    n

    jjj

    x

    x

    j

    ,...,1 ,0 :a sujeto

    )()( Min

    )(1

    2

    2

    En la minimizacin con respecto a x, b es una constante que no incide en la determinacin de la solucin optimal. Puesto que en (P) las distintas xj son variables independientes, se puede descomponer el problema (P) en n subproblemas de optimizacin (Pj) independientes:

    =

    njx

    xaxfP

    j

    jjx

    jx

    j

    jj

    ,...,1 ,0:a sujeto

    =)( Min)(

    2

    ,

    2

    Se tiene que

    fx

    x x aj

    jj j j

    , ( ) =

    Luego

    ==

    >

    jjjj

    j

    jjjj

    j

    jjjj

    j

    axxx

    f

    axxx

    f

    axxx

    f

    si ;0)(

    si ;0)(

    si ;0)(

    ,

    ,

    ,

    Por lo tanto (P,j) presenta un mnimo global cuando x a xj j j= = ( ) , y en

    consecuencia: (P) tiene un ptimo global en ( )x .

  • Introduccin a la Investigacin de Operaciones

    25

    Para resolver el problema (P) se trata de encontrar los valores de que satisfacen las condiciones i al iii del Teorema 4. La condicin ii (condicin de complementariedad) establece que:

    ( ) 0)( = jj xab , es decir que:

    =

    =

    bxa jj )(:bien o ,0

    Se discuten a continuacin ambos casos.

    Si = 0 ( )x j = 0, y no se satisface la condicin i: a x bj j ( ) . Si b a x a a b aj j j j j= = = ( ) 2 .

    Por lo tanto = ==

    b akk

    n2

    1.

    Con este valor de es vlido que 0, lo cual equivale a iii; y es vlido que a x bj j = ( ) , que equivale a i y ii. Por lo tanto satisface el Teorema 4, es decir que

    ( )x x a b aj j j k= = 2 es una solucin ptima de (P). El valor optimal es: f x a b a b a a b aj k k k k ( ) ( ) ( )= = = 12 2 2 2 2 12 2 2 2 2 12 2 2

    Ejemplo 2: El problema del mochilero o Knapsac Problem (caso continuo). Considrese el problema del mochilero, definido como sigue:

    =

    =

    10

    :a sujeto

    Max

    )(

    1

    1

    j

    n

    jjj

    n

    jjj

    x

    bxb

    xa

    KP

    Siendo aj, bj, b > 0. Se trata del problema de cargar de vveres una mochila de volumen b para un viaje. Se debe elegir entre n comestibles; de cada uno de ellos hay existencias por un volumen bj con un poder nutricional total aj; xj representa la parte que el mochilero deber cargar de las existencias del alimento jsimo. Los alimentos tienen distinto valor que es su poder nutricional por unidad de volumen (cj = aj / bj). Parece natural elegir a los comestibles en orden decreciente de valor nutricional. Supngase que se cumple c1c2cn.

    Se propone el siguiente procedimiento para llenar la mochila: asignar x1 = 1, x2 = 1, etc. hasta llegar al alimento ksimo, el cual no cabe totalmente, por lo que se coloca todo cuanto quepa (0 xk < 1). Se probar que sta es una solucin ptima utilizando relajacin lagrangeana.

  • Introduccin a la Investigacin de Operaciones

    26

    Se construye la relajacin lagrangeana (KP) de (KP) (previamente se plantea el problema como uno de minimizacin)

    +=

    10:a sujeto

    )(Min

    )(1

    j

    n

    jjjjx

    x

    bxba

    KP

    (KP) se descompone en un problema (KP,j) para cada j.

    +

    10:a sujeto

    )(Min)(

    ,

    j

    jjjx

    jx

    xba

    KPj

    Ntese que si aj + bj > 0, es decir: si > aj / bj = cj, el valor minimal se presenta en xj() = 0. De la misma forma, si < cj se obtiene xj() = 1, y si = cj, se puede elegir xj [0,1]. Sea = ck, donde k es el comestible que (de acuerdo a lo anterior) no entraba totalmente en la mochila.

    Si j < k , entonces cj y por lo tanto: ( )x j = 1 Si j > k, entonces cj < , y por lo tanto: ( )x j = 0. xk ( ) se puede elegir tal que ( ) ,xk 0 1 .

    La solucin hallada intuitivamente, soluciona el problema relajado con = ck. Adems se cumple 0 y a x bj j ( ) = por lo cual ( )x satisface las condiciones i al iii del Teorema 4. Por lo tanto ( )x es solucin ptima de (KP). En resumen: El Problema del mochilero:

    =

    =

    10

    :a sujeto

    Max

    )(

    1

    1

    j

    n

    jjj

    n

    jjj

    x

    bxb

    xa

    KP

    (con aj, bj y b > 0) se soluciona, en el caso continuo, asignando variables iguales a 1 en orden de valor, es decir, en orden descendiente de aj / bj y sin exceder la disponibilidad b del recurso.

  • Introduccin a la Investigacin de Operaciones

    27

    Sea xk la variable que violara la restriccin si le fuera asignado el valor 1. Para esta variable se elige un valor menor que 1 y de modo que la restriccin se satisfaga exactamente.

    Ejemplo 3: Encontrar un ptimo global al siguiente problema:

    =>

    +

    = =

    =

    nix

    bxpaxb

    xa

    P

    i

    n

    i

    n

    jjjiii

    n

    iii

    ..1 0

    a sujeto min

    )(0

    1 1

    1

    2

    Sabiendo que nibap iii ..1 0,0,0 =>>> y 00 >b

    Primero reescribimos la restriccin:

    ( )

    ==

    = =

    +=+

    =++++++++++=

    +

    n

    iiii

    n

    iiiii

    nnnnnnnnn

    n

    i

    n

    jjjiii

    xpAbAxpxb

    xpaxpaxpaxbxpaxpaxpaxbxpaxb

    11

    22111221111111 1

    .........

    Siendo =

    =

    n

    jjaA

    1.

    Por lo tanto, el problema puede ser reescrito as:

    ( )

    =>

    +

    =

    =

    nix

    xpAb

    xa

    P

    i

    n

    iiii

    n

    iii

    ..1 0

    0b

    a sujeto min

    )(

    10

    1

    2

    Hallamos el problema P, relajando la restriccin:

    ( )

    =>

    ++=

    nix

    bxpAbxa

    P

    i

    n

    iiiiii

    ..1 0 a sujeto

    min

    )(0

    1

    2

    Eliminando el trmino independiente y separando el problema, tenemos:

  • Introduccin a la Investigacin de Operaciones

    28

    ( )

    =>

    +

    njx

    xpAbxaP

    j

    jjjjj

    j..1 0

    a sujeto min

    )(2

    ,

    Como ,0>ja la funcin objetivo es convexa. Entonces, encontramos el ptimo derivando:

    ( ) ( )j

    jjjjjjj

    a

    pAbxpAbxa

    2)(02 +==+

    Imponiendo la condicin de complementariedad, tenemos que

    ( ) 0)(b 1

    0 =

    +

    =

    n

    iiii xpAb

    Si = 0, la solucin no es factible pues se violara la restriccin xi > 0.

    Entonces

    ( ) ( ) ( ) ( )

    =

    == +==

    ++=+

    n

    i i

    ii

    n

    i i

    iiii

    n

    iiii

    a

    pAbbb

    a

    pAbpAbbxpAb

    1

    20

    01

    01

    22

    Finalmente, la solucin ptima se obtiene sustituyendo ese valor de : ( )

    ( )( )( )

    ==

    +

    +=

    +

    +=

    n

    i i

    iij

    jjn

    i i

    iij

    jjj

    a

    pAba

    pAbb

    a

    pAba

    pAbbx

    1

    20

    1

    20

    22

    Con condiciones de igualdad, el Teorema 4 tiene una forma ms sencilla. Teorema 5:

    Si x es una solucin optimal del problema (M) que cumple: g( x ) = 0 entonces x es una solucin optimal de (M=).

    Prueba: Se utiliza el Corolario 1.1 y su notacin:

    (M) es una relajacin de (M=) m por el Teorema 3. x es solucin optimal de (M) por hiptesis. x F porque se cumple x X, y g( x ) = 0.

  • Introduccin a la Investigacin de Operaciones

    29

    f x f x g x f xL i ii

    m

    ( ) ( ) ( ) ( ) = + ==

    1

    pues gi( x ) = 0, i.

    la conclusin se desprende ahora del Corolario citado.

    Teorema 6:

    Sean f y gi funciones convexas y diferenciables. Si x X y m, satisfacen: i g( x ) 0. ii igi( x ) = 0. iii 0.

    iv + ==

    f x g xi ii

    m

    ( ) ( ) 01

    entonces x es ptimo de (M). Prueba:

    i iii son las condiciones del Teorema 4. Se demostrar a continuacin que iv significa que x es solucin optimal de (M): f f gi i = + es una funcin convexa porque i 0 implica que igi es convexa y las sumas de funciones convexas son convexas. Como = + f f gi i , la condicin iv implica que =f x ( ) 0.

    Por ser f(x) una funcin convexa, se cumple x X que: f x f x f x x x f x ( ) ( ) ( )( ) ( ) + = y por lo tanto, x es solucin optimal de (M). La tesis se desprende del Teorema 4.

    La mayora de los teoremas de esta seccin suponen que x FL , o sea que la solucin optimal del problema relajado pertence a la regin factible del problema original. Si x FL se puede, a partir de xL , encontrar un punto x FL que no es mucho ms caro, lo cual se deduce del siguiente teorema: Teorema 7: Sean

    (GL) una relajacin de (G). xL y x soluciones optimales de (GL) y (G) respectivamente. xL una solucin no necesariamente optimal de (GL), que cumple xL F.

    En estas condiciones se cumple: f x f x f xL L L( ) ( ) ( ) . Prueba:

    f x f xL L( ) ( ) , por el Teorema 1.

  • Introduccin a la Investigacin de Operaciones

    30

    f x f xL ( ) ( ) , por ser x solucin optimal de (G). luego: f x f x f xL L L( ) ( ) ( )

    2.6 Dualidad En el captulo anterior se resolvieron problemas de optimizacin determinando (analticamente) los multiplicadores de Lagrange. Esto rara vez se puede hacer en la prctica, y en su lugar lo usual es determinar los multiplicadores de Lagrange resolviendo un nuevo problema de optimizacin, llamado Problema Dual el cual consiste en buscar la relajacin ms fuerte posible, o sea, una relajacin cuyo valor optimal est tan prximo como sea posible del valor ptimo del problema original.

    2.6.1 Problemas duales. Condiciones de optimalidad Considrese un problema de Programacin Matemtica (P) cuyas restricciones son todas del tipo (esta suposicin ser al slo efecto de fijar ideas):

    Xx

    xg

    xf

    P0)(

    :a sujeto)( Min

    )(

    La relajacin lagrangeana de este problema es (P):

    +

    Xx

    xgxfP

    T

    :a sujeto)()( Min

    )(

    Sean: p el valor optimal de la funcin objetivo de (P) y () el valor optimal de la funcin objetivo de (P), para cada .

    { }{ }Xxxgxf

    XxxgxfpT +=

    =

    )()( Min )(,0)()( Min

    Puesto que (P) es una relajacin de (P) se cumple que 0 y entonces () p. Es entonces natural elegir la relajacin ms fuerte posible, o sea: elegir 0 tal que () sea maximal. Esto nos da el problema dual:

    0:a sujeto

    )(Max)(

    D

    (P) se llama problema primal del problema (D). Si se tiene restricciones de igualdad en el problema primal no habr exigencia de positividad en el problema dual. Los teoremas que siguen son vlidos tambin en este

  • Introduccin a la Investigacin de Operaciones

    31

    caso, ya que se construyen a partir de que () p para los valores de que dan relajaciones. Sea d el valor optimal de (D). p y d son entoces los valores optimales primal y dual respectivamente.

    Observacin: d p Prueba:

    (P) es una relajacin de (P), por lo tanto () p, 0 Pero entoces: d = Max {() : 0} p

    No siempre ocurre que d = p, por eso se define la discrepancia de dualidad (duality gap): = p d Ntese que siempre se cumple que 0.

    Ejemplo 4:

    =

    =

    0

    :a sujeto

    2Min

    )(

    1

    1

    2

    j

    n

    jjj

    n

    jjx

    x

    bxa

    x

    P

    con aj y b positivos. Se plantea el problema relajado lagrangeano, tal como se hizo en el captulo de relajaciones:

    +=

    0:a sujeto

    )2/(Min

    )(1

    2

    j

    n

    jjjjx

    x

    bxax

    P

    La solucin de (P) es ( )x aj j = , segn lo visto en relajaciones. Entonces la funcin objetivo del problema dual es: ( ) (( ) ) ( ) = + = +

    =

    a a a b a bj jj

    n

    j j2

    1

    12

    22

    De modo que el problema dual es:

  • Introduccin a la Investigacin de Operaciones

    32

    +=

    0:a sujeto

    )()( Max)(

    2221

    baD

    j

    es una funcin cncava y tiene, por lo tanto, un valor mximo cuando d d = 0 (suponiendo que sto brinde una solucin factible). Se obtiene entonces: 0 2= = +

    dd

    a bj

    ( ) , o sea: ( ) = b a j2 0 , que es factible.

    Por lo tanto = b a j2 es una solucin optimal del problema dual. Este es el mismo multiplicador de Lagrange que se hall en el captulo Relajaciones. Adems: d a b a bb a b aj j j j= = + = ( ) ( ) ( ) 12 2 2 2 2 2 12 2 2

    El valor optimal del problema primal, calculado en el captulo de Relajaciones es: p b a j= 12 2 2 Por lo tanto en este caso: = p d = 0. Ntese que la solucin ptima del problema primal ( )x a b a xj j k j= = 2 es igual a la solucin ptima del problema relajado con la solucin ptima del problema dual como multiplicador de Lagrange. Por lo tanto, se puede determinar la solucin primal ptima con la ayuda de la solucin ptima dual.

    Teorema 9: Si x y son soluciones factibles de (P) y (D) respectivamente, entonces cumplen:

    ( ) ( ) f x Prueba:

    ( ) ( ) d p f x

    Corolario 9.1: Sean x y soluciones factibles de (P) y (D) respectivamente, que cumplen: ( ) ( ) = f x . En esas condiciones x y son soluciones optimales de (P) y (D) respectivamente.

    Prueba: Sea una solucin factible cualquiera del problema dual, de acuerdo al Teorema anterior tenemos: ( ) ( ) ( ) =f x y en consecuencia: es solucin optimal del problema (D) Anlogamente se demuestra que x es solucin optimal de (P)

    Este corolario brinda una nueva interpretacin del Teorema 4. Bajo las condiciones del Teorema es vlido que x y son factibles para (P) y (D) y adems que ( ) ( ) ( ) ( ) = + =f x g x f xi i . La optimalidad se desprende tambin del Corolario anterior.

  • Introduccin a la Investigacin de Operaciones

    33

    Observacin: () es una funcin cncava. En los casos en que se puede determinar en forma explcita (analtica) la funcin objetivo del problema dual () vale la pena, en general, resolver el problema dual en lugar del primal y despus determinar una solucin primal con la ayuda de los teoremas que siguen. El gradiente de la funcin objetivo dual se obtiene a travs del siguiente teorema (adems de tomar la derivada de la funcin deducida analticamente). Teorema 10:

    Si se cumple que X es cerrado y acotado, y que (P) tiene solucin ptima ( )x nica entonces: =( ) ( ( )) g x T

    Prueba: Sean ( , ) ( ) ( ) ( ) ( )x f x g x f x g xT T = + = +

    { } [ ]),(Min)()( Min)( xxgxf XxTXx =+= Ntese que = ( , ) ( )x g x T .

    Adems = + ( ) [ ( ), ] ( ) [ ( ), ] x x x x

    Como x() minimiza (x,) en el sentido de las x: x[x(),] = 0 Luego: () = [x(),] = g x T( ( ))

    Ejemplo (continuacin): Se aplicar el Teorema en el ejemplo anterior Sabemos que ( )x aj j = y que ( ) ba j += 2221)( g x b a x b a aj j j j( ) ( ) = =

    Adems = + ( ) a bj2 , que concuerda con = ( ) ( ( )) g x como deba ser de acuerdo al teorema precedente. Cuando = se cumple que = = ( ) ( ) g x 0 y por lo tanto x es una solucin factible. Adems g x( ) = 0, por lo tanto: f x f x g x ( ) ( ) ( ) ( ) = + = .

    La optimalidad de x y de se desprende del Corolario 9.1.

    Cabe preguntarse si en general se puede tener la esperanza de encontrar la solucin ptima del problema primal a travs de la solucin ptima del dual. Los siguientes teoremas responden parcialmente a esta inquietud. Teorema 11: Si X es cerrado y acotado, es solucin ptima de (D) y (P ) tiene una solucin ptima ( )x nica. Entonces se cumple: i T g x( ( )) = 0

    ii g x( ( )) 0

  • Introduccin a la Investigacin de Operaciones

    34

    Prueba: ( )x es solucin ptima nica de (P ) entonces, por el Teorema 10 =( ) ( ( )) g x T (*) Como es solucin ptima de (D), y () es diferenciable, se cumple que: a) =( ) 0 b) ( ) 0 Introduciendo (*) en a y b se obtienen i y ii. Los puntos i y ii del Teorema 11 coinciden con los i y ii del Teorema 4. La condicin iii ( 0) se cumple automticamente. Del Teorema 4 y del Corolario 9.1 se deduce el teorema siguiente.

    Teorema 12: Si X es cerrado y acotado, es solucin ptima de (D), y ( )P tiene un ptimo nico ( )x . Entonces ( )x es solucin ptima de (P). Solamente algunos problemas muy especiales pueden ser resueltos con la tcnica del captulo Relajaciones, que consiste en resolver analticamente el problema relajado para valores fijos de los parmetros lagrangeanos, y posteriormente determinar dichos parmetros de modo que se cumplan las condiciones del Teorema 4. Con la ayuda del problema dual se obtiene una tcnica general para determinar los valores ptimos de los parmetros de Lagrange, a partir de los cuales se puede calcular las soluciones ptimas del problema primal, de forma que el duality gap sea nulo (=0).

    2.7 Programacion Lineal

    En este captulo se exponen la teora y los mtodos de la Programacin Lineal (PL), que comprende los problemas de optimizacin donde se tiene una funcin objetivo lineal y restricciones lineales. Esta es la clase de problemas ms importante y ms usada, entre otras cosas porque se puede resolver problemas muy grandes en poco tiempo de clculo y con bajo consumo de recursos computacionales, y tambin porque esta teora inspira el desarrollo de otras reas.

    2.7.1 Generalidades En los problemas de programacin lineal (PL) se tiene una funcin objetivo lineal y restricciones lineales. En general se exige tambin la positividad de las variables. Un problema general de PL se puede escribir en la forma siguiente:

  • Introduccin a la Investigacin de Operaciones

    35

    =

    +=

    ==

    =

    =

    =

    =

    ljx

    mkibxa

    kibxa

    xcz

    j

    ij

    n

    jij

    ij

    n

    jij

    j

    n

    jj

    ,...,1,0

    ,...,1,

    ,...,1,

    :a sujeto

    Min

    1

    1

    1

    La regin factible de un problema de PL es un conjunto polidrico. En un espacio tridimensional, un poliedro es un conjunto limitado por superficies planas como lo muestra el ejemplo de la figura:

    El mtodo predominante para la resolucin de problemas de PL es el llamado mtodo simplex, el cual utiliza una estrategia active set, que en este caso implica que se recorran las aristas de la regin factible, de vrtice en vrtice. El mtodo simplex exige que se haya formulado el problema en su forma standard, en la que slo se tienen restricciones de igualdad (y la exigencia de positividad de las variables). Sin embargo, la formulacin ms usual en el contexto terico es la forma cannica, en que se tienen solamente restricciones de desigualdad (y condiciones de positividad de las variables). Cualquier problema de PL se puede formular tanto en forma cannica como en forma standard.

    2.7.2 Forma cannica y dualidad La forma cannica es la ms adecuada para razonamientos tericos relacionados con la dualidad:

    =

    =

    =

    =

    =

    njx

    mibxa

    xcz

    PL

    j

    n

    jijj

    n

    jjj

    c

    ,...,1,0

    ,...,1,

    :a sujeto

    Min

    )(

    1

    1

  • Introduccin a la Investigacin de Operaciones

    36

    Utilizando notacin vectorial y matricial se obtiene una forma ms compacta de escribir el problema (PLc):

    =

    0

    :a sujetoMin

    )(

    x

    bAx

    xcz

    PL

    T

    c

    Donde {c, x} n, b m, y A mn. El problema dual del problema de PL en la forma cannica tiene la forma que se deduce del teorema siguiente: Teorema 13: El problema dual (PDc) del problema primal (PLc) es:

    0

    :a sujetoMax

    )(

    u

    cuA

    ub

    PDT

    T

    c

    Prueba: Antes de hallar el dual se reescribe el problema primal en la forma utilizada para la definicin de dualidad:

    00

    :a sujetoMin

    )(

    x

    Axb

    xc

    PL

    T

    c

    Se decide no relajar las exigencias de positividad (x 0). La funcin objetivo del dual es () = Minx {cTx + T(bAx)x 0} = Minx {(cT TA)x + Tbx 0}, que equivale a:

  • Introduccin a la Investigacin de Operaciones

    37

    y puede ser escrito como:

    00

    :a sujetoMax

    )(

    Ac

    b

    PDTT

    T

    c

    Transponiendo en la funcin objetivo y en la restriccin se obtiene:

    0

    :a sujetoMax

    )(

    cA

    b

    PDT

    T

    c

    La tesis se deduce sustituyendo por u.

    Teorema 14: El problema dual del problema dual (PDc) es el problema primal (PLc). Prueba: Se sugiere hacer la relajacin lagrangeana de (PDc) y continuar de la misma forma que en el Teorema 13.

    Se pueden construir problemas duales de problemas cuyas restricciones sean de igualdad o desigualdad, y cuyas variables tengan o no restriccin de signo. Debido a que las variables duales se interpretan por medio de relajacin lagrangeana, se observa que restricciones de desigualdad conducen a variables duales restringidas en su signo, en tanto que restricciones de igualdad conducen a variables duales sin limitacin de signo. Adems, como las variables primales son variables duales para el problema dual, se concluye que variables primales con restriccin de signo conducen a restricciones de desigualdad en el dual, mientras que las variables primales no restringidas respecto al signo se relacionan con restricciones de igualdad en el problema dual. Todo lo que precede se formula en el siguiente teorema, en un modo ms general.

  • Introduccin a la Investigacin de Operaciones

    38

    Teorema 15:

    El problema general de PL:

    +

    +

    0libre,

    =+

    :a sujetoMin

    2

    1

    2222121

    1212111

    2211

    x

    x

    bxAxAbxAxA

    xcxc TT

    Tiene como dual a

    +

    +

    0libre,

    =+

    :a sujetoMax

    2

    1

    2222112

    1221111

    2211

    u

    u

    cuAuAcuAuA

    ubub

    TT

    TT

    TT

    2.7.3 Forma standard Para la resolucin numrica de problemas de PL se usa la llamada forma standard:

    =

    0)0(

    :a sujetoMin

    )(

    x

    bbAx

    xc

    PL

    T

    s

    En la forma standard se asume que b 0. Si esta condicin no se cumpliera en algn caso particular, basta multiplicar por 1 las ecuaciones que tienen signo negativo en b.

    2.7.4 Transformaciones entre distintas formas a) de restricciones de desigualdad a restricciones de igualdad Una desigualdad puede llevarse a una igualdad introduciendo una nueva variable no negativa, llamada variable de holgura.

    La restriccin a x bij jj

    n

    i=

    1

    se transforma en una restriccin de igualdad, y se agrega una

    condicin de positividad:

    =+=

    01

    y

    byxa in

    jjij

    As, con la ayuda de variables de hogura, se llevan a la forma standard los problemas expresados en forma cannica.

  • Introduccin a la Investigacin de Operaciones

    39

    El problema

    0

    :a sujetoMin

    )(

    x

    bAx

    xc

    PL

    T

    c es equivalente a

    =

    0,

    :a sujetoMin

    )(

    yxbyAx

    xc

    P

    T

    b) de restricciones de igualdad a restricciones de desigualdad El sistema de ecuaciones Ax = b puede ser fcilmente transformado en dos desigualdades:

    bAxbAx

    o bien:

    bAxbAx

    c) de variables libres a variables con restriccin de signo El mtodo simplex puede ser aplicado con variables libres. Una variable libre puede, de todas formas, ser transformada en una variable con restriccin de signo si se la escribe como diferencia entre dos variables positivas:

    x x x x x= + + , , 0.

    2.7.5 Mtodo Simplex Considrese el siguiente problema en su forma standard:

    =

    =

    )(0

    :a sujetoMin

    )(n

    T

    s

    xx

    bAx

    xcz

    PL

    Las soluciones del sistema de ecuaciones Ax b= estn contenidas en un hiperplano de n, en el cual adems estn presentes las restricciones de positividad x 0.

    xi =0 b

    a

    -c

    x| Ax =bxk =0

    Si A mn es de rango completo, es decir: sus filas son linealmente independientes, entonces el hiperplano {x | Ax = b} tiene dimensin nm. Si se conoce una solucin factible (p. ej.: a), se busca una solucin factible mejor en la direccin negativa del gradiente de z, para minimizar la funcin objetivo. Hay dos formas de atacar este problema:

  • Introduccin a la Investigacin de Operaciones

    40

    a) proyectar c en el hiperplano {x | Ax = b} y moverse en la direccin proyectada. b) resolver m variables con la ayuda de la ecuacin Ax = b y expresarlas con la ayuda de las restantes nm variables. El mtodo simplex utiliza la segunda variante. Sean las primeras m variables las que se expresan con la ayuda de las dems. La ecuacin Ax = b se puede escribir como

    ABxB + ANxN = b

    donde xB m contiene las m primeras componentes de x, xN nm contiene a las nm restantes. La matriz AB mm contiene las primeras m columnas de A, en tanto que AN m(nm) contiene a las restantes.

    Si AB mm tiene rango completo, se la puede invertir (lo cual constituye una condicin para poder calcular xB). Asumiendo que AB es invertible, se obtiene la siguiente expresin:

    x A A x A bB B N N B+ = 1 1

    y luego se expresa xB como funcin de xN:

    x A b A A xB B B N N= 1 1

    Variando libremente xN, se obtiene a partir de la expresin precedente un valor de xB que hace que se satisfaga la condicin Ax = b. Si se elige xN = 0 se obtiene x A bB B= 1 , ste tipo de soluciones se llama solucin bsica. La matriz AB es la correspondiente matriz bsica (porque sus columnas forman una base de m). Las componentes de xB se llaman variables bsicas, y las de xN: variables no bsicas. La solucin bsica x A bB B= 1 , xN = 0, es factible si x 0, es decir, si xB 0.

    Las soluciones bsicas factibles se corresponden con los vrtices (puntos extremos) de la regin de soluciones factibles.

    Se puede eliminar xB de la funcin objetivo. Se comienza por expresar el vector cT n como c c cT BT NT= ( , ), se obtiene as la siguiente forma de la funcin objetivo: z c x c x

    c A b c A A x c xc c A A x c A b

    c x z

    BT

    B NT

    B

    BT

    B BT

    B N N NT

    N

    NT

    BT

    B N N BT

    B

    NT

    N

    = +

    = +

    = +

    = +

    1 1

    1 1( )

    En la solucin bsica xN = 0 y z z= .

    c c c A ANT NT BT B N= 1 se llama costo reducido. El costo reducido indica como vara la funcin objetivo al variar xN, dos trminos componen el costo reducido: cNT indica la

  • Introduccin a la Investigacin de Operaciones

    41

    incidencia directa de xN sobre la funcin objetivo, en tanto que c A ABT B N1 refleja la influencia indirecta de xN a travs de las variaciones que provoca en xB.

    Definiendo A A AN B N= 1 y b A bB= 1 se puede reescribir el problema de PL en su forma standard del siguiente modo:

    =

    +=+=

    .0 ,

    :a sujeto

    Min

    )(

    NB

    NNB

    NjjjN

    TN

    s

    xx

    xAbx

    xczzxcz

    PL

    La solucin bsica correspondiente es ( , ) ( , )x x bB N = 0 . Supngase que dicha solucin bsica es factible, es decir: b 0. Si alguna componente de cN , por ejemplo c j , es negativa, se obtendr un valor mejor de la funcin objetivo incrementando xj desde su valor nulo actual. Si slo aumenta xj, el incremento en xB se calcula como x b a xB j j= donde a j es la columna correspondiente a xj en AN . Esta solucin es factible si xB 0, a continuacin se estudian las condiciones que deben cumplirse para asegurar la factibilidad. La ecuacin x b a xB j j= expresada por componentes queda: ( )x b a xB i i ij j= ..

    Si aij 0 , entonces (xB)i no decrece al aumentar xj. En consecuencia el cumplimiento de la restriccin (xB)i 0 no est condicionado por la variacin de xj. Si aij > 0 , entonces (xB)i disminuye al aumentar xj, y se hace cero cuando x b aj j ij= En consecuencia, la solucin es factible si las variaciones de xj cumplen que:

    { }0 | Min > ijijiij aabx . Cuando { }0 | Min >= ijijiij aabx , una de las variables bsicas se hace cero (la o las variables bsicas para las cuales se obtiene el mnimo), lo cual equivale a haberse desplazado hacia un vrtice adyacente al de partida en la representacin geomtrica del problema (p. ej. el punto b de la figura). Es adecuado entonces realizar un cambio de sistema de coordenadas en el hiperplano {x | Ax = b}, xj es ahora mayor que cero y se convierte en variable bsica, al tiempo que la variable bsica que tom el valor cero se hace no bsica. Esta es la esencia del funcionamiento del mtodo simplex, que fuera desarrollado por G.B. Dantzig a fines de los 40. El mtodo se basa en que una solucin factible dada puede ser mejorada si alguna componente de cN es negativa. El siguiente teorema indica lo que sucede cuando cN 0 .

  • Introduccin a la Investigacin de Operaciones

    42

    Teorema 16 Si en el problema (PLs) se cumple que b 0 y adems cN 0 , entonces la solucin bsica correspondiente es ptima. Prueba: Se demostrar a travs de relajaciones, utilizando el Corolario 1.1. El problema (PLs) es el mismo que ( )PLs aunque expresado en forma distinta. Se obtiene una relajacin de ( )PLs ignorando la restriccin x b A xB N N= , el problema relajado es:

    +=+=

    0 ,:a sujeto

    Min

    )(NB

    xx

    jjNTN

    sr

    xx

    xczxczz

    PLNj

    ( , ) ( , )x x bB N = 0 es una solucin ptima de (PLsr ), porque c j 0 y adems se puede minimizar por separado en (PLsr ).

    ( , ) ( , )x x bB N = 0 es una solucin factible de ( )PLs por ser xN = 0, y b 0.

    ( , ) ( , )x x bB N = 0 da el mismo valor de la funcin objetivo en ( )PLs y en (PLsr ), porque ambos problemas tienen la misma funcin objetivo.

    En consecuencia, ( , ) ( , )x x bB N = 0 cumple todas las condiciones del Corolario 1.1, y por lo tanto es solucin ptima de ( )PLs , luego: es solucin ptima de (PLs).

    Estructura bsica del mtodo simplex 1. Tomar una solucin bsica factible. 2. Transformar el problema a la forma ( )PLs resolviendo las variables bsicas.

    3. Si c j 0 j FIN: se hall una solucin ptima. 4. Si algn c j < 0, aumentar xj hasta que algn (xB)i = 0. Se obtiene en ese caso una nueva solucin bsica. Volver al paso 2.

    Forma tableau del mtodo simplex Se acostumbra exponer los clculos manuales en una tabla (que puede ser fcilmente implementada en una computadora). Se explicar el uso a travs de un ejemplo:

  • Introduccin a la Investigacin de Operaciones

    43

    +

    +

    +

    0,32

    2:a sujeto

    32Max

    21

    21

    21

    21

    xx

    xx

    xx

    xx

    El problema puede ser representado en la figura siguiente:

    1

    2 31

    2

    x1

    x2

    1 2

    3

    4

    La regin factible es el contorno delimitado por los vrtices (1), (2), (3) y (4). Las lneas punteadas son la curvas de nivel de la funcin objetivo. La solucin ptima se encuentra en el vrtice (3). Se hallar dicha solucin por el mtodo simplex. Se introducen en primer lugar las variables de holgura x x3 4 y para llevar el problema a la forma standard. Tambin se cambia el signo a la funcin objetivo para obtener un problema de minimizacin:

    ==++

    =++

    4,,1,032

    2:a sujeto

    32Min

    421

    321

    21

    ixxxx

    xxx

    xx

    i

    O en forma matricial:

    =

    4032

    10210111

    :a sujeto)0,0,3,2(Min

    xx

    x

    x

  • Introduccin a la Investigacin de Operaciones

    44

    Ntese que las variables de holgura x x3 4 y son variables bsicas adecuadas: estn expresas en funcin de las otras variables, y estn eliminadas de la funcin objetivo.

    x x x

    x x x

    3 1 2

    4 1 2

    23 2

    =

    =

    El sistema de ecuaciones, en forma tableau, tiene la representacin siguiente:

    El tableau tiene la siguiente forma

    0TcbA

    .

    Las variables bsicas ya estn resueltas, el tableau corresponde tambin al problema transformado ( )PLs . Los puntos debajo de las columnas 3 y 4 indican que las variables x3 y x4 son bsicas. La solucin bsica correspondiente se obtiene asignando el valor cero a las variables no bsicas (x1, x2). Por lo tanto, la solucin bsica es: x1 = 0, x2 = 0, x3 = 2, x4 = 3. Esta solucin corresponde al vrtice (1) en la figura. La ltima lnea del tableau muestra los costos reducidos. Debido a que c1 0< y c2 0< , vale la pena aumentar x1 o x2, como c2 es el ms negativo, conviene elegir x2 como nueva variable bsica. El valor sombreado es aquel para el cual se obtiene el { }0 | Min >ijijii aab El sistema de ecuaciones, canonizando la columna correspondiente a x2, toma la forma:

    Puesto que slo c1 0< , conviene elegir x1 como variable bsica, obteniendo:

    Se ha obtenido una solucin ptima, pues c jj > 0, . Dicha solucin ptima tiene las variables no bsicas igualadas a cero y las variables bsicas iguales a b : x1 = 1, x2 = 1, x3 = 0, x4 = 0.

    x1 x2 x3 x4 b 1 1 1 0 2 1 2 0 1 3 2 3 0 0 0

    x1 X2 x3 x4 b 1/2 0 1 -1/2 1/2 1/2 1 0 1/2 3/2 -1/2 0 0 3/2 9/2

    x1 x2 x3 x4 b 1 0 2 -1 1 0 1 -1 0 1 0 0 1 1 5

  • Introduccin a la Investigacin de Operaciones

    45

    Mtodo simplex, espacio de soluciones no acotado Cuando cj < 0, la variable no bsica xj correspondiente puede aumentar hasta hacer que alguna variable bsica alcance el valor cero. Si ocurre que aij 0 i, ninguna variable bsica disminuye su valor al aumentar xj, obtenindose soluciones factibles para cualquier valor (positivo) de xj. Adems, como cj < 0, la funcin objetivo disminuye con el aumento de xj, de modo que decrecer hacia cuando xj aumente hacia +. En estas condiciones se tiene un valor ptimo no acotado, en un dominio infinito de soluciones factibles. El ejemplo siguiente ilustra estos conceptos.

    +

    0,11

    :a sujetoMax

    21

    12

    21

    21

    xx

    xx

    xx

    xx

    La regin factible es la de la figura siguiente:

    1 23

    1

    2

    1 2