Optimización de Sistemas y Funciones

15
INSTITUTO UNIVERSITARIO POLITÉCNICO SANTIAGO MARIÑO “EXTENSIÓN PORLAMAR” ESCUELA DE INGENIERÍA DE SISTEMAS OPTIMIZACIÓN DE SISTEMA Y DE FUNCIONES. Autor: Br. Angeline Spinetti Profesor: Ing. Diógenes Rodríguez Porlamar, Junio 2014

description

Breve explicación sobre los Ejercicios de Extremos no restrictos con dos variables, Metodo de Lagrange, Matriz Jacobiana,Condiciones de Kuhn Tucker

Transcript of Optimización de Sistemas y Funciones

Page 1: Optimización de Sistemas y Funciones

INSTITUTO UNIVERSITARIO POLITÉCNICO SANTIAGO MARIÑO

“EXTENSIÓN PORLAMAR”ESCUELA DE INGENIERÍA DE SISTEMAS

OPTIMIZACIÓN DE SISTEMA Y DE FUNCIONES.

Autor:Br. Angeline Spinetti

Profesor: Ing. Diógenes Rodríguez

Porlamar, Junio 2014

Page 2: Optimización de Sistemas y Funciones

MÉTODO DE LAGRANGE

Briceño. (2013), Considera que es un método creado por Joseph Louis Lagrange un matemático, físico y astrónomo Italiano. Lagrange demostró el teorema del valor medio, desarrolló la mecánica Lagrangiana y tuvo una importante contribución en astronomía.

Los Multiplicadores de Lagrange, son un método para trabajar con funciones de varias variables que se interesa maximizar o minimizar, y está sujeta a cierta restricciones.

Page 3: Optimización de Sistemas y Funciones

MÉTODO DE LAGRANGE

Ejemplo 1:¿Cuál es el área máxima que puede tener un rectángulo si la longitud de su diagonal es 4?Solución:Represente un rectángulo con lados x e y, base y altura respectivamente.

x

y4

224 yx

2216 yx

La longitud de la diagonal es 4, fíjese que se forma un triangulo rectángulo.Función a optimizar: maximizar en este caso: Área.Área de un rectángulo: A = x.yCondición a cumplir: :

De una manera más fácil:

Al tener identificadas la función y la condición, se determinan los gradientes.

Así las ecuaciones de Lagrange son

xyAyAxA ,,

yxgygxg 2,2,

Así las ecuaciones de Lagrange son:

Page 4: Optimización de Sistemas y Funciones

MÉTODO DE LAGRANGE

422 yx

22xxy )2( 2yyx

22 22 yx 22 yx xy

2216 xx

2216 x

8x

8

8 8 8

…(3)Al resolver el sistema, una de las formas puede ser:Multiplicar la ecuación (1) por x, y también la ecuación (2) por y,

…. (4)

….. (5)Se igualan las ecuaciones (4) y (5)

Al simplificar queda: ; Queda: Luego una variable se expresa en función de la otra y se sustituye en la ecuación (3).•Si y = x

Como estamos midiendo distancias, x solo puede tomar valores no negativos, así que se tiene un único punto que es para x=

, la altura y también vale. Así se concluye que las dimensiones del rectángulo corresponden con un cuadrado de lado . Su área será: A=

*

=8*

Page 5: Optimización de Sistemas y Funciones

MÉTODO DE KUHN TUCKER

Albert William Tucker (1905 – 1955), fue un matemático Estadounidense nacido en Canadá que realizó importantes contribuciones a la Topologías, Teorías de juegos y a la Programación no Lineal.

En programación matemática, las condiciones de Karush-Kuhn-Tuckerson condiciones necesarias y suficientes para que la solución de un problema de programación matemática sea optima.

Es una generalización del método de los Multiplicadores de Lagrange.

Page 6: Optimización de Sistemas y Funciones

MÉTODO DE KUHN TUCKER

• Problema General de Optimización

Consideremos el siguiente problema general:

min f(x)Sujeto a Gi(x)≤0, i = 1,…,mHj(x)= 0, j= 1,…,l

Donde f(x) es la función objetivo a minimizar, Gi(x) son las restricciones de desigualdad y Hi(x) son la restricciones de igualdad, con m y l el numero de restricciones de desigualdad e igualdad, respectivamente.

Page 7: Optimización de Sistemas y Funciones

MÉTODO DE KUHN TUCKER

Considere el problema de optimización

Sujeto a:

Page 8: Optimización de Sistemas y Funciones

MÉTODO DE KUHN TUCKER

El método de solución procede de la siguiente manera. Cambiemos cada restricción de desigualdad gi ≤0a una restricción de igualdadintroduciendo una variable si de la siguiente manera:

gi ≤0→gi +s2i = 0

De acuerdo a la técnica de los multiplicadores de Lagrange se construye

la función:

Page 9: Optimización de Sistemas y Funciones

MÉTODO DE KUHN TUCKER

Los puntos que minimizan a f sujeta a las restricciones gi ≤0(1≤i≤m) están

dentro de los puntos críticos de F:

• Que hacen cero las parciales con respecto a las variables xj(j= 1, . . . , n):

• Que hacen cero las parciales con respecto a las variables λi(i= 1, . . . , m):

Page 10: Optimización de Sistemas y Funciones

MATRIZ JACOBIANA

Es una matriz de todos los derivados parciales de primer orden de una función vectorial o con valores escalares con respectos a otro vector .

Esta matriz lleva su nombre gracias a Carl Gustav Jacob Jacobi, fue un matemático alemán, que hizo contribuciones fundamentales a las funciones elípticas, dinámica, ecuaciones diferenciales, y la teoría de números. Su nombre es a veces escrito como Carolus Gustavus Iacobus Iacobi en sus libros latinos, y su nombre se da a veces como Karl.Jacobi fue el primer matemático judío para ser nombrado profesor en una universidad alemana.

Page 11: Optimización de Sistemas y Funciones

MATRIZ JACOBIANA

(a)

Page 12: Optimización de Sistemas y Funciones

EJEMPLO: Hallar la matriz Jacobiana en el punto a = (1,1) de la función f siguiente:

Page 13: Optimización de Sistemas y Funciones

EXTREMOS NO RESTRICTOS CON DOS VARIABLES

Los pasos para la obtención de máximos y mínimos por el criterio de la primera y segunda derivada son:

I. Obtener la primera derivada de la función.

II. Igualar la función a cero.

III. Resolver para X , en donde i = 1,2, ..., n. Los cuales al ser representados gráficamente, son

los puntos críticos de la inflexión en la curva de la función.

IV. Para obtener la coordenada de y de los puntos críticos se sustituyen los valores obtenidos

en la función original.

V. Obtener la segunda derivada de la función.

VI. Sustituir los valores de los puntos críticos en la segunda derivada.

VII. Determinar los intervalos, donde la curva sea creciente, decreciente, cóncava o convexa.

De esta forma, primero necesitamos derivar la función con respecto a la variable x.

y2 =3 - 3x 2 

Si y2  = 0 , entonces:

3 - 3x 2=0 , despejando x para obtener su valor:

3=3x 2

3/ 3=x 2

x =por lo tanto:  x1 = 1 Y X2 =N -1

Page 14: Optimización de Sistemas y Funciones

EXTREMOS NO RESTRICTOS CON DOS VARIABLES

De acuerdo a los pasos que se indicaron previamente, ahora necesitamos obtener la segunda derivada de la función, ya anteriormente habíamos obtenidoy2 =3 - 3x 2, por lo tanto y” =-6 x

Finalmente evaluamos la función en los puntos de x que se encontraron anteriormente:Y” = -6( 1)= -6 , lo que significa que estamos en presencia de un máximo.Y" =-6(-1) =6 , lo que significa que estamos en presencia de un mínimo

Page 15: Optimización de Sistemas y Funciones

Un problema restringido de optimización:

Tiene la forma Maximiza (o minimiza) f(x, y,. . . ) sujeta a restricciones.

Las restricciones están en forma de ecuaciones o en forma de restricciones del dominio de f. Podemos resolver estos problemas por primero despejar una de las variables de las ecuaciones de restricción, para después sustituirla en f, y después ubicar el máximo (o mínimo) de la función que resulta. En casos en los que el dominio R de la función resultando tiene una frontera, tenemos también ubicar los extremos de f cuando se está restringido a la frontera.

Multiplicadores de Lagrange Para localizar los candidatos a extremos relativos de una función f(x, y, . . .) sujeta a la restricción g(x, y, ...) = 0, se resuelve el siguiente sistema de ecuaciones para obtener x, y, ... y λ:fx = λgx

fy = λgy

    ...g = 0El incógnita λ se llama un multiplicador de Lagrange. Los puntos (x, y, . . .) que se ocurren in las soluciones son los candidatos a los extremos relativos de la función f sujeta a g = 0.