el problema de optimización lineal con restricciones[1].docx

43
Índice Introducción 1 El problema de optimización lineal con restricciones 2 Función de LaGrange 2-3-4 Las condiciones de Karush-Kuhn-Tucker 4-5-6-7-8 Tipos de programación 9 Programación cuadrática 9-10-11-12-13 Programación separable 14 Programación geométrica 15-16-17-18 Métodos de penalización 18-19-20-21-22-23-24-25-26-27

Transcript of el problema de optimización lineal con restricciones[1].docx

Page 1: el problema de optimización lineal con restricciones[1].docx

Índice

Introducción 1

El problema de optimización lineal con restricciones 2

Función de LaGrange 2-3-4

Las condiciones de Karush-Kuhn-Tucker 4-5-6-7-8

Tipos de programación 9

Programación cuadrática 9-10-11-12-13

Programación separable 14

Programación geométrica 15-16-17-18

Métodos de penalización 18-19-20-21-22-23-24-25-26-27

Conclusiones 28

Bibliografías 29

Page 2: el problema de optimización lineal con restricciones[1].docx

Introducción

En muchos problemas las restricciones se pueden incluir dentro de la función

objetivo, por lo que la dimensionalidad el problema se reduce a una variable. Algunos

problemas sin restricciones, inherentes incluyen una única variable. Las técnicas de

optimización con y sin restricciones, generalmente incluyen pasos de búsqueda

unidireccional en sus algoritmos.

Antes de la aparición de los ordenadores de alta velocidad los métodos de

optimización estaban prácticamente lineados a los métodos indirectos en los cuales el

cálculo del extremo potencial estaba restringido al uso de derivadas y las condiciones

necesarias de optimalizad. Los modelos ordenadores han hecho posible los métodos

directos, esto es la búsqueda de un óptimo por comparación sucesiva de los valores de

la función en una secuencia de puntos sin la necesidad de hacer intervenir derivadas

analíticas.

Para llevar a cabo métodos directos de minimización numérica solamente se

usa el valor de la función objetivo. En optimización sin restricciones se minimizan

una función objetivo que depende de variables reales sin restricciones sobre los

valores se esas variables.

En la práctica los problemas de optimización casi nunca son sin restricciones,

lo usual es que se minimice un costo sujeto a satisfacer ecuaciones de restricciones,

estas ecuaciones normalmente están basadas en modelos que describen la interacción

entre el control y otras variables físicas.

1

Page 3: el problema de optimización lineal con restricciones[1].docx

El Problema de Optimización Lineal con Restricciones

Es la selección del mejor elemento con respecto a algún criterio de un

conjunto de elementos disponibles.

En el caso más simple, un problema de optimización consiste en maximizar o

minimizar una función real eligiendo sistemáticamente valores de entrada tomados de

un conjunto permitido y computando el valor de la función. La generalización de la

teoría de la optimización y técnicas para otras formulaciones comprende un área

grande de las matemáticas aplicadas. De forma general, la optimización incluye el

descubrimiento de los mejores valores de alguna función objetivo dado un dominio

definido, incluyendo una variedad de diferentes tipos de funciones objetivo y

diferentes tipos de dominios.

Función de Lagrange

Método para trabajar con funciones de varias variables que nos interesa

maximizar o minimizar, y está sujeta a ciertas restricciones.

En los problemas de optimización, los multiplicadores de Lagrange,

nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con

funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a

ciertas restricciones. Este método reduce el problema restringido en n variables en

uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.

2

Page 4: el problema de optimización lineal con restricciones[1].docx

Este método introduce una nueva variable escalar desconocida, el

multiplicador de Lagrange, para cada restricción y forma una combinación lineal

involucrando los multiplicadores como coeficientes. Su demostración involucra

derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la

Regla de la cadena. El fin es, usando alguna función implícita, encontrar las

condiciones para que la derivada con respecto a las variables independientes de una

función sea igual a cero.

Se denomina péndulo simple a una existencia ideal constituido por una masa

puntual suspendido de un hilo inextensible y sin peso, capaz de oscilar libremente en

el vacío y sin rozamiento. Al separar la masa de su posición de equilibrio, oscila a

ambos lados de dicha posición, realizando un movimiento armónico simple.

Naturalmente es imposible la realización práctica de un péndulo simple, pero si es

accesible a la teoría.

El péndulo simple o matemático se denomina así en contraposición a los

péndulos reales, compuestos o físicos, únicos que pueden construirse.

Al considerarse un péndulo simple, si se desplaza la partícula desde la

posición de equilibrio hasta que el hilo forme un ángulo Θ con la vertical, y luego se

abandona partiendo del reposo, el péndulo oscilará en un plano vertical bajo la acción

de la gravedad.

Las oscilaciones tendrán lugar entre las posiciones extremas Θ y -Θ,

simétricas respecto a la vertical, a lo largo de un arco de circunferencia cuyo radio es

la longitud, del hilo. El movimiento es periódico, pero no se puede asegurar que sea

armónico.

3

Page 5: el problema de optimización lineal con restricciones[1].docx

Para determinar la naturaleza de las oscilaciones se debe de escribir la

ecuación del movimiento de la partícula. La partícula se mueve sobre un arco de

circunferencia bajo la acción de dos fuerzas: su propio peso (mg) y la tensión del hilo

(N).

Las Condiciones de Karush-Kuhn-Tucker

Son condiciones necesarias y suficientes para que la solución de un problema

de programación matemática sea óptima. Es una generalización del método de los

Multiplicadores de Lagrange.

Problema general de optimización:

Consideremos el siguiente problema general:

,

,

Donde es la función objetivo a minimizar, son las restricciones de

desigualdad y son las restricciones de igualdad, con y el número de

restricciones de desigualdad e igualdad, respectivamente.

4

Page 6: el problema de optimización lineal con restricciones[1].docx

Las condiciones necesarias para problemas con restricciones de desigualdad

fueron publicadas por primera vez en la tesis de máster de W. Karush, aunque fueron

renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W.

Tucker.

Condiciones necesarias de primer orden:

Supongamos que la función objetivo, por ejemplo, a minimizar, es

y las funciones de restricción son y .

Además, supongamos que son continuamente diferenciables en el punto . Si es

un mínimo local, entonces existe constantes , y

tales que

Condiciones de regularidad o cualificación de las restricciones:

En la condición necesaria anterior, el multiplicador dual puede ser igual a

cero. Este caso se denomina degenerado o anormal. La condición necesaria no tiene

en cuenta las propiedades de la función sino la geometría de las restricciones.

5

Page 7: el problema de optimización lineal con restricciones[1].docx

Existen una serie de condiciones de regularidad que aseguran que la solución no

es degenerada es decir . Estas incluyen:

Cualificación de la restricción de independencia lineal (CRIL): los gradientes

de las restricciones activas de desigualdad y los gradientes de las restricciones

de igualdad son linealmente independientes en .

Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los

gradientes de las restricciones activas de desigualdad y los gradientes de las

restricciones de igualdad son linealmente independientes positivos en .

Cualificación de la restricción de rango constante (CRRC): para cada

subconjunto de las restricciones activas de desigualdad y los gradientes de las

restricciones de igualdad, el rango en el entorno de es constante.

Cualificación de la restricción de dependencia lineal constante positiva

(DLCP): para cada subconjunto de restricciones activas de desigualdad y de

gradientes de las restricciones de igualdad, si es linealmente dependiente

positivo en entonces es linealmente dependiente positivo en el entorno de

. ( es linealmente dependiente positivo si existe

distintos de cero tal que )

Condición de Slater para un problema únicamente con restricciones de

desigualdad, existe un punto tal que para todo

Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque CRMF

no es equivalente a CRRC. En la práctica, se prefiere cualificación de restricciones

más débiles ya que proporcionan condiciones de optimalizad más fuertes.

6

Page 8: el problema de optimización lineal con restricciones[1].docx

Condiciones suficientes:

Sea la función objetivo y las funciones de restricción

sean funciones convexas y sean las funciones de

afinidad, y sea un punto . Si existen constantes y

tales que

Entonces el punto es un mínimo global.

Optimización en la Toma de decisiones:

Una de las características del ser humano es su capacidad para tomar

decisiones, lo que incluye, básicamente, su capacidad para analizar las alternativas y

evaluarlas en términos de su comportamiento respecto de los objetivos que desea

conseguir. Es una actividad tan cotidiana que prácticamente no le prestamos atención.

En muchos casos hemos ‘automatizado’ ese proceso de toma de decisiones como

fruto de la experiencia. Sin embargo, cuando el problema al que nos enfrentamos es

muy complejo, hay muchas alternativas posibles, y son graves sus consecuencias, por

lo que resulta difícil realizar este proceso de análisis y evaluación.

  Los problemas que surgen en las grandes organizaciones, tanto en el sector

privado como en el público, son tan complejos que no pueden resolverse usando

exclusivamente sentido común y experiencia práctica. Se deben tomar decisiones

sobre la manera óptima de usar los recursos disponibles, generalmente escasos, para

lograr unos ciertos objetivos.

7

Page 9: el problema de optimización lineal con restricciones[1].docx

La Investigación Operativa proporciona modelos y técnicas para abordar estos

problemas, que permiten comprender los sistemas reales y, en general, facilitan

información sobre la decisión o el conjunto de decisiones más adecuado de acuerdo

con los objetivos establecidos y el impacto que pueden tener sobre el funcionamiento

del sistema como un todo.

  Una de las ramas de la Investigación Operativa, la denominada Optimización

o Programación Matemática, estudia el uso de modelos matemáticos para ayudar en

el proceso de toma de decisiones. El proceso comienza con la formulación del

modelo que es una representación del sistema real. Un modelo matemático consta de

un conjunto de variables cuyo valor ha de determinarse; un conjunto de restricciones

que reflejan las relaciones entre las variables; y el/los objetivo/s que permiten

comparar la calidad de las soluciones que satisfacen las restricciones. Las

características de las variables, restricciones y objetivos determinan la complejidad

del modelo y la capacidad que tenemos de resolverlo.

  La toma de decisiones basada en la optimización procedentes de la solución

optimizada, se conocen los verdaderos beneficios alternativos o los costos de

oportunidad asociados a ella.  En cambio, en aquellos casos en los cuales uno o varios

elementos que hacen al negocio o a alguna dimensión del negocio no se incluyen en

el modelo acerca del cual se decide, sino que son considerados individualmente, los

beneficios alternativos o los costos de oportunidad concurrentes a la solución no

reflejarán correctamente el valor que poseen para ese negocio. 

Por ejemplo, una solución productiva sustentada en a el menor costo en

términos de tiempo de procesos sean simples o  complejos y b en el menor costo

operativo, no necesariamente garantiza que sea una solución sustentable en términos

de la búsqueda de market share o de una estructura financiera determinada y lo

mismo sucede en la situación opuesta.

8

Page 10: el problema de optimización lineal con restricciones[1].docx

Tipos de Programación

Existen varias clases de programación, dependiendo de los métodos utilizados

y las técnicas empleadas.

Los tipos o técnicas de programación son bastante variados, aunque puede que

muchos de los lectores sólo conozcan una metodología para realizar programas. En la

mayoría de los casos, las técnicas se centran en programación modular y

programación estructurada, pero existen otros tipos de programación. Los

explicaremos a lo largo del artículo.

Programación Cuadrática

La programación cuadrática es un tipo especial en la matemática de optimización de

problemas. Es el problema de optimizar reduciendo al mínimo o maximizando una función

cuadrática de varias variables conforme a apremios lineales en estas variables. El problema de la

programación cuadrática se puede formular como:

suma x pertenece a espacio. n×n matriz Q es simétrico, y c es cualquiera n

vector×1. Reduzca al mínimo con respecto a x Conforme a unos o más apremios

de la forma: constreñimiento de la desigualdad. Ex =d necesidad de la igualdad

Si Q es a matriz positiva, entonces f(x) es unción convexa. En este caso el

programa cuadrático tiene un minimizar global si existe por lo menos un vector x

de satisfacción de los apremios y f(x) se limita abajo en la región factible. Si la

matriz Q es definido positivo entonces este minimizar global es único. Si Q es

cero, después el problema convierte en a programa lineal.

9

Page 11: el problema de optimización lineal con restricciones[1].docx

De teoría de la optimización, una condición necesaria para un punto x ser un minimizar global está

para que satisfaga Karush-Kuhn-Tucker Condiciones KKT. Las condiciones de KKT son también

suficientes cuando f (x) es convexo. La importancia de la programación cuadrática recae en que,

como es un caso especial de la programación no lineal, se utiliza como una función

modelo para aproximar funciones no lineales a través de modelos locales. La

programación cuadrática trabaja con una clase especial de problemas en el que una

función cuadrática de variables de decisión sujeta a restricciones lineales desde

igualdad requiere ser optimizada, bien sea, ser minimizada o maximizada. Una

función cuadrática, en notación matricial, es una función de la forma

f (x)= ½ x TQx + cTx. Es de gran importancia identificar o poder definir la

característica de la matriz Hessiana, ya que a partir de ésta podemos determinar

ciertas características del problema, que nos serán útiles para encontrar su solución.

Para que utilizamos la Programación Cuadrática

Existen diferentes tipos de problemas de programación cuadrática, los cuales

se pueden clasificar en: Problemas cuadráticos de minimización sin restricciones,

requieren minimizar la función cuadrática f (x) sobre el espacio completo. Problemas

cuadráticos de minimización sujetos a restricciones de igualdad, requieren minimizar

la función objetivo

f(x) sujeta a restricciones lineales de igualdad Ax = b. Problemas cuadráticos de

minimización sujetos a restricciones lineales desde igualdad. Requieren minimizar la

función objetivo f (x) sujeta a restricciones lineales desde igualdad Ax = b, también

puede contener restricciones de igualdad. Problemas de optimización de redes

cuadráticas. Son problemas cuadráticos en los que las restricciones son restricciones

de baja conservación sobre una red pura o generalizada.

10

Page 12: el problema de optimización lineal con restricciones[1].docx

Problemas cuadráticos convexos. Son cuales quiera de los mencionados

arriba, en el cual la función objetivo a ser minimizada, f (x) es convexa. Problemas

cuadráticos no convexos. Son cuales quiera de los mencionados arriba, en el cual la

función objetivo a ser minimizada, f (x) es no convexa. Problemas de

complementariedad lineal. Son problemas especiales con un sistema de ecuaciones en

variables no negativas, en el cual las variables están formadas en varios pares

llamados pares complementarios. Históricamente, las funciones cuadráticas fueron

prominentes porque proveían modelos locales simples para funciones no lineales

generales. Una función cuadrática, es la función no lineal más simple, y cuando es

usada como una aproximación para una función no lineal general, esta puede capturar

la información importante de la curvatura, lo que una aproximación lineal no puede.

El uso de aproximaciones cuadráticas para resolver problemas con funciones no

lineales generales se remonta mucho tiempo atrás. Entre los métodos más destacados,

tenemos al método de Newton y el método de gradiente conjugado. Para la

programación cuadrática se pueden encontrar mínimos locales, mínimos globales,

puntos estacionarios o de KKT, (son los que satisfacen las condiciones de KKT del

problema).En problemas convexos de programación cuadrática, todo punto KKT o

mínimo local, es un mínimo global

Ejemplo de su aplicación

Resolver el siguiente problema de programación cuadrática por el método de

Wolfe :Aplicando los multiplicadores de Lagrange tenemos: Las primeras derivadas parciales son:

El problema de programación lineal equivalente al original de acuerdo al método Wolfees: Con las

siguientes restricciones de holgura complementaria: Utilizando el método Simplex se tiene que la

solución básica inicial es: En la primera iteración entra y sale X1 es de aclarar que aunque el Simplex

escoge 1 y 2 para entrar a la base antes que lo haga X2, 1 y 2 no son aceptables, ya que Y1 y

Y2 son positivos.

11

Page 13: el problema de optimización lineal con restricciones[1].docx

El punto extremo luego se recálcala es:

En la tercera iteración no pueden entrar a la base 1 y 2 y Y1 y Y2  son positivas; el

Simplex toma como siguiente candidato a 1 y de salida Y1; el punto extremo después de iterar es:

En la última iteración.

12

Page 14: el problema de optimización lineal con restricciones[1].docx

(V1 = 0 y V2 = 0) debe entrarX1pero no puede porque 1 es positivo; el siguiente elemento a

entrar a la base es 1 el cual reemplaza aV2 Luego de re calcular el punto extremo es: La solución

anterior corresponde al óptimo:

13

Page 15: el problema de optimización lineal con restricciones[1].docx

Programación Separable

La programación separable es un caso especial de programación convexa, en

donde la suposición adicional es todas las funciones f(x) y g(x) son funciones

separables.

Una función separable es una función en la que cada término incluye una sola

variable, por lo que la función se puede separar en una suma de funciones de

variables individuales. Por ejemplo, si  f(x) es una función separable, se puede

expresar como:

Son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el

mismo razonamiento, se puede verificar que la función considerada en la figura 13.7

también es una función separable.

Es importante distinguir estos problemas de otros de programación convexa,

pues cualquier problema de programación separable se puede aproximar muy de

cerca mediante uno de programación lineal y, entonces, se puede aplicar el eficiente

método símplex.

14

Page 16: el problema de optimización lineal con restricciones[1].docx

La Programación Geométrica

Soluciona un caso especial de problemas de Programación No Lineal.

Este método resuelve al considerar un problema dual asociado los siguientes dos

tipos de Programación No Lineal:

1. Problema Geométrico No Restringido:

2. Problema Geométrico Restringido:

Donde es real, para toda

supone para ambos casos son finitas, los exponentes no tienen

restricciones de signo , las funciones toman la forma de un polinomio,

excepto que los exponentes pueden ser negativos; por esta razón y

porque todas las ; se denominan posinomiales. La Programación

Geométrica fue diseñada por Duffin, Peterson y Zener.

15

Page 17: el problema de optimización lineal con restricciones[1].docx

La lógica de la Programación Geométrica se basa en la desigualdad de

Cauchy desigualdad de media aritmética - geométrica:

El método de solución consiste en calcular las primeras derivadas parciales de

de la función objetivo se obtiene la ecuación:

De las primeras derivadas parciales iguales a cero se escribe la relación:

Donde aij son los coeficientes positivos, m es el número de variables y n el

número de términos. Generalmente, el número de términos determina el número de

factores de peso y el número de variables independientes señala el número de

ecuaciones.

Cuando n = m + 1, se dice que el problema tiene cero grados de dificultad.

Cuando n - (m + 1)> 0, es un problema que no se puede resolver mediante

Programación Geométrica. Finalmente se resuelven los sistemas de ecuaciones

simultáneas planteadas y se obtiene la solución del problema.

16

Page 18: el problema de optimización lineal con restricciones[1].docx

Ejemplo:

1. Encontrar la cantidad económica de pedido de un producto, es decir, se debe

decidir qué cantidad del artículo conviene almacenar periódicamente; los

costos totales asociados al producto y su almacenamiento se pueden

expresar

CT = CCI + CHP + VC donde;

Donde:

La función objetivo tiene la siguiente formula general:

Page 19: el problema de optimización lineal con restricciones[1].docx

17

De tal modo que al resolver el anterior sistema de ecuaciones simultáneas

llegamos a que 1 = 2 y la variable Q* debe ser tal que haga que los dos términos

de la función objetivo sean iguales:

Método De Penalización

Si se tiene un problema de Programación Lineal, que no se encuentra expresado

en forma canónica, es recomendable utilizar el Método de Penalización. Las

restricciones e inclusive las variables de holgura son presentadas como una

igualdad o no-negativas, deberán introducirse variables artificiales ( ), que harán

posible resolver el problema. Existen varias maneras de darle solución al problema

planteado, dos de ellas son estos dos métodos de solución alternativa :

a. El Método de Penalización

Page 20: el problema de optimización lineal con restricciones[1].docx

b. El Método de Doble Fase

18

Para lo cual debe seguirse un método que permita convertir en cero a la

variable artificial para obtener una solución factible. A este método se le conoce

como Método de la M Grande, o la Gran M, Big M Method en la literatura inglesa.

Este método radica en la introducción de la variable artificial que modifica a

la función objetivo, que será a su vez multiplicada por una cantidad M, que

describe un valor muy grande con signo negativo cuando se quiera maximizar y en

caso de minimizar el valor arbitrario será positivo y muy elevado, que amplía el

espacio de soluciones factibles. Se tiene que:

Opt Z = Cx

Sujeto a :

Ax b y/o Ax = b

Tal que Ax = b puede decirse como [ b.] tenemos que para minimizar la función

objetivo:

Mín Z= C x + M

S.a

A x – Y + M = b

x 0, Y 0, M 0.

Page 21: el problema de optimización lineal con restricciones[1].docx

19

Si se busca maximizar Z:

Max Z = C x – M

S.a

A x + Y – M = b

Se obtiene la solución óptima del problema sí y solo sí el vector M es igual con

cero. El Método Simplex trata en cada iteración mejorar la función objetivo. Si el

problema original no tiene restricciones inconsistentes, el vector M, saldrá de la

base por completo, o sea M = 0, se habrá retornado al problema original y se

obtendrá por el Método Simplex la solución óptima. En caso de haber utilizado el

Método de la M, y haber llegado a la solución óptima; pero el vector M > 0,

entonces el problema original no tiene solución, por las restricciones inconsistentes

del problema.

Método de la M Grande o de Penalización

Los pasos a seguir son:

1. Expresar el problema en forma estándar, teniendo en cuenta que:

Todas las restricciones son ecuaciones, con excepción de la restricción de

no-negatividad,

El valor de , o los valores de la extrema derecha de la tabla deben ser

Page 22: el problema de optimización lineal con restricciones[1].docx

también no negativos.

Las variables x estarán expresadas en forma no-negativa

La optimización de la función objetivo, puede ser de maximización o

minimización.

20

Recordar que:

Mín Z = max H max H = min (-Z)

1. Reescribir el problema; Haciendo igualdades las desigualdades, tomando en

cuenta las variables de holgura y de exceso donde sean requeridas. De tal

forma que:

I. Introducir las variables artificiales ( ) en las restricciones que tengan la

característica ( b, = b ).

II. Asignar la penalización para cada unidad de las variables en la función

objetivo designada como (–M) para problemas de maximización y (+M) para

minimización, con M>0.

1. Elaborar la primera tabla con todo lo anterior señalado.

2. Mediante el uso de las operaciones de renglón elementales, a fin de expresar

el coeficiente ( –M) en caso de maximizar, ó (+M) en el de minimizar ,

haciendo cero el valor de la variable artificial

3. Continuar con el algoritmo del Método Simplex descrito anteriormente.

Page 23: el problema de optimización lineal con restricciones[1].docx

A continuación se presenta un problema de programación lineal, que será resuelto

por el Método de Penalización y que posteriormente, éste mismo se resolverá con el

Método de las Dos Fases.

Min Z =

21

Sujeto a las siguientes restricciones:

4

6

18

con 0, siendo j = 1, 2

0, 0, 0, 0, 0, 0.

Asignar la penalización a la función objetivo , que radica en colocar (+M) para

problemas de maximización, e introducir la variable artificial ( ), quedando:

Min Z = + M

Hacer la función objetivo igual a cero, y las restricciones expresadas en forma

de igualdad, considerando las variables de exceso y superfluas.

De manera que:

Page 24: el problema de optimización lineal con restricciones[1].docx

Mín Z +

22

Con los datos anteriores se elabora la primera tabla

TABLA I

  Z

Fo Vb 1 3 -5 0 0 0 -M 0

FP

F2

F3

0 1 0 1 0 0 0 4

0 0 1 0 1 0 0 6

-M 3 2 0 0 -1 1 18

Nótese que no hay solución básica, ya que tiene coeficiente –M, para lo

cual se transformará la fila Vb (Variables básicas), haciendo (M) Vb + Vb para

obtener el coeficiente cero

Quedando la fila Vb de la siguiente manera:

13+3M -5+2M 0 0 -M 0 18M

Page 25: el problema de optimización lineal con restricciones[1].docx

23

que resultará en la siguiente tabla Entra

  Z

Fo Vb 1 3+3M -5+2M 0 0 -M 0 18M

0 1 0 1 0 0 0 4

0 0 1 0 1 0 0 6

0 3 2 0 0 -1 1 18

Sale

La solución básica Zo = 18M; pero al min Z, la condición no se

cumple, ya que existe ( 3+ 3M) en , y que resulta un número muy grande

positivo (la condición de optimalizad que minimice se cumplirá cuando existan

números negativos, y/o ceros en su totalidad en la primera fila, que corresponde a

las variables x, las variables de holgura S, y las superfluas Y), el cual entrará en la

tabla siguiente.

Luego entonces se aplica el algoritmo del método Simplex.

Page 26: el problema de optimización lineal con restricciones[1].docx

 

Si;

24

Hacemos

Entonces = 4

Sale con la fila:

10 1 0 0 0 4

Con coeficiente =1 en el traslape de la fila que sale y la columna que

entra , es automáticamente, la fila pivotal.

Se hacen operaciones de renglón,

Fo – ( 3 + 3 M) FP

Y F3 – 3FP

TABLA II Entra

Page 27: el problema de optimización lineal con restricciones[1].docx

  Z

Vb 1 0 -5+2M -3-3M 0 -M 0 -12+6M

0 1 0 1 0 0 0 4

0 0 1 0 1 0 0 6

0 0 2 -3 0 -1 1 6

Sale

25

Se observa que y Z óptimo = ( -12 + 6M )

La optimalizad no se cumple en ( 5 + 2M), que es un número muy

grande positivo, (el doble de él, mas cinco unidades), luego entonces, entra con

se calcula

= 3, por lo tanto sale de la tabla, que en la fila

02 -3 0 -1 1 6

En la cual, el traslape de la fila con la columna resulta ser 2 , que se convertirá

Page 28: el problema de optimización lineal con restricciones[1].docx

en coeficiente con valor a la unidad (1), haciendo sencillos arreglos matriciales,

multiplicando por 1/2 toda la fila, se producirá la fila pivotal F.P.

01 -3/2 0 -1/2 1/2 3

Haciendo las operaciones de renglón, utilizando la fila pivotal F.P. siguientes

FP + F2 Y ( 5 - 2 M) FP + Fo , tenemos, los siguiente:

26

TABLA II

  Z

Fo Vb 1 0 0 -21/2 0 -5/2 5/2-M 3

0 1 0 1 0 0 0 4

0 0 0 3/2 1 1/2 -1/2 3

0 0 1 -3/2 0 -1/2 1/2 3

Se cumple la optimalizad de , (para las variables x, las de

holgura S, y la superflua Y, existen números negativos y/o ceros)que para este caso

fue de minimizar la función objetivo.

Sin dejar de tomar en cuenta que el vector de soluciones óptimas indica que

deben sus componentes ser mayores y/o iguales que cero, para cumplir con el

conjunto de restricciones a los que está sujeta la función objetivo Z.

Luego entonces,

La solución óptima será para:

Page 29: el problema de optimización lineal con restricciones[1].docx

La función objetivo óptima es:

Con = 3.

27

  Conclusiones

  La optimización numérica de funciones no lineales requiere la utilización de

técnicas de optimización eficiente y robusta. La eficiencia es importante porque la

solución de estos problemas se lleva a cabo por un procedimiento iterativo. La

robustez habilidad para encontrar la solución es una propiedad deseable dado que el

comportamiento de las funciones no lineales puede ser impredecible:

Pueden presentar máximo y mínimo, mínimos y punto de sillas. En algunas

regiones el avance hacia el óptimo puede ser muy lento, necesitando mucho tiempo

de cálculo. Afortunadamente se posee mucha experiencia utilizando métodos de

optimización numérica lo que permite contar con buenos algoritmos y conocer sus

limitaciones y posibilidades.

Page 30: el problema de optimización lineal con restricciones[1].docx

 

28

Bibliografía

 www4.ujaen.es/~angelcid/Archivos/Analisis_Mat_II.../Practica6.pdf

ortalevlm.usal.es/INDEX_FILES/BASES/.../MULTILAGRANGEEJ.PD...

es.thefreedictionary.com/optimizar

sl1.mit.edu/mib/dsp/curricula.mit.edu/~dsplan/Docs/.../index.htm

www.mty.itesm.mx/etie/deptos/m/ma00-130/lecturas/m130-15.pdf

Page 31: el problema de optimización lineal con restricciones[1].docx

29

República bolivariana de Venezuela

Ministerio del poder popular para la defensa

Universidad Experimental Politécnica de las Fuerzas Armadas

Unefa-Chuao

Nocturno

Unidad 5. Método de Optimización Con Restricciones

Page 32: el problema de optimización lineal con restricciones[1].docx

Integrantes

Yanes Zuryn

Guevara Rafael

Fernandez Maria

Martines Luis

Caracas 11 de Diciembre del 2013