Goncalves 20%

download Goncalves 20%

of 23

description

dferf

Transcript of Goncalves 20%

  • Estudiante:PAOLA GONCALVES C.I V-19350709OptimizacinProf. Mariangela PintoBarinas, Diciembre de 2015Optimizacin Con Restricciones

  • Optimizacin con Restricciones La optimizacin con restricciones es el proceso de optimizacin de una funcin objetivo con respecto a algunas variables con restricciones en las mismas. La funcin objetivo es, o bien una funcin de coste o funcin de energa que debe ser minimizada, o una funcin de recompensa o funcin de utilidad, que ha de ser maximizado. Forma generalUn problema general de minimizacin restringida se puede escribir como sigue: En algunos problemas, a menudo llamados problemas de optimizacin con restricciones, la funcin objetivo es en realidad la suma de funciones de coste, cada una penaliza la medida (si la hay) en la que una restriccin blanda (una restriccin que se prefiere pero no se requiere para ser satisfecho) es violada.

  • Mtodos de solucinRestricciones de igualdadSi el problema restringido slo tiene restricciones de igualdad, el mtodo de los multiplicadores de Lagrange puede ser utilizado para convertirlo en un problema sin restricciones cuyo nmero de variables es el nmero original de las variables ms el nmero original de restricciones de igualdad. Alternativamente, si las restricciones son todas las restricciones de igualdad y son lineales, que se pueden resolver para algunas de las variables en trminos de los otros, y la antigua pueden ser sustituidos de la funcin objetivo, dejando un problema sin restricciones en un nmero menor de variables.Restricciones de desigualdadCon restricciones de desigualdad, el problema puede ser caracterizado en trminos de las condiciones de Karush-Kuhn-Tucker, en la que los problemas pueden ser resueltos.Programacin linealSi la funcin objetivo y todas las restricciones son lineales, entonces el problema es problema de programacin lineal. Esto se puede resolver por el mtodo simplex.

  • Extremos RestringidosTeorema Condicin necesaria para la existencia de un extremo: Si la funcin z = f (x, y) tiene un extremo cuando x = x0 , y= y0 entonces cada derivada parcial de primer orden de z se anula para estos valores de las variables independientes o bien la derivada no existe. Los puntos de la funcin donde se verifica que las derivadas parciales de primer orden son cero o no existen son puntos crticos de la funcin. La existencia de puntos crticos es una condicin necesaria para un extremo, es decir, los extremos (mximos o mnimos) de una funcin son puntos crticos. Sin embargo, no en todos los casos en que las derivadas parciales sean cero o no existan tendremos extremos. En otras palabras, la existencia de puntos crticos de una funcin no es suficiente para la existencia de un punto extremo. Prueba de las segundas derivadas: Tenemos una funcin z = f(x, y) definida en un dominio en el que est el P(x0, y0) que tiene derivadas parciales continuas al menos de hasta segundo orden. Suponemos que P(x0, y0) se anulan las derivadas parciales de primer orden. Esto es:

  • Luego, se puede demostrar que P (Xo,Yo ), y es:

    Un mximo, si evaluadas las derivadas parciales de segundo orden en se tiene que: X= Xo, y Y= Yo se tiene que:

    2. Un mnimo, si evaluadas las derivadas parciales de segundo orden en se tiene que: X= Xo, y Y= Yo

    3. No es mximo ni mnimo si evaluadas las derivadas parciales de segundo orden en se tiene que:

    Este caso se le denomina punto silla. En un punto silla, la funcin z = f (x, y) tiene un mnimo en alguna direccin y un mximo en otra direccin.

    4. Se requiere ms anlisis para decidir si P (Xo,Yo ), y es un punto extremo cuando:

  • ProblemasExtremos Restringidos

    En la siguiente funcin encontrar los puntos crticos y determinar si stos son mximos o mnimos relativos, puntos de inflexin o puntos de silla:f( x, y) = x + 4xy 2y +1SOLUCIN.Calculando la primera derivada e igualndola a 0 buscando los puntos crticos:f ( x, y ) = -3x + 4y, f ( x, y ) = 4x 4y Una vez resuelta la derivada para encontrar los puntos crticos igualamos las dos ecuaciones a 0: -3x + 4y = 0 => si se sustituye y : - 3x = - 4y => y = x = 4/34x 4y = 0 => si se sustituye y : 4x = 4y => y = 4x/4 => y = xUna vez realizada la igualacin se obtiene un sistema de ecuaciones, de la segunda ecuacin se observa y = x = 0 y sustituyendo en la primera obtenemos e y = x = 4/3 y se procede a realizar la segunda derivada: f ( x, y) = - 6x, f ( x, y ) = - 4 y f ( x, y ) = 4Para el punto crtico se tiene que (0. 0), H (0, 0) = -16 < 0 y, y por el criterio de las derivadas parciales segundas, se concluye que (0, 0, 1) es el punto de silla de f. Para el punto Critico (4/3, 4/3), se tiene H (4/3, 4/3) = 16 > 0 y como f (4/3, 4/3) = -8 < 0 Se concluye que f(4/3, 4/3) es un mximo relativo

  • Mtodo de LaGrange El mtodo de losmultiplicadores de Lagrange, llamados as en honor aJoseph Louis Lagrange, es un procedimiento para encontrar los mximos y mnimos de funciones de mltiples variables sujetas a restricciones. Este mtodo reduce el problema restringido connvariables a uno sin restricciones den+k variables, donde k es igual al nmero de restricciones, y cuyas ecuaciones pueden ser resueltas ms fcilmente. Estas nuevas variables escalares desconocidas, una para cada restriccin, son llamadas multiplicadores de Lagrange. El mtodo dice que los puntos donde la funcin tiene un extremo condicionado con k restricciones, estn entre lospuntos estacionariosde una nueva funcin sin restricciones construida como unacombinacin linealde la funcin y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores. La demostracin usaderivadas parcialesy laregla de la cadenapara funciones de varias variables. Se trata de extraer una funcin implcita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a lasvariables independientesde la funcin sean iguales a cero.

  • Consideremos un caso bidimensional. Supongamos que tenemos la funcin,f(x,y), y queremos maximizarla, estando sujeta a la condicin:

    donde c es una constante. Podemos visualizar las curvas de nivel de f dadas por Para varios valores dedn, y el contorno degdado porg(x,y) =c. Supongamos que hablamos de la curva de nivel dondeg=c. Entonces, en general, las curvas de nivel defygsern distintas, y la curvag=cpor lo general intersectar y cruzar muchos contornos def. En general, movindose a travs de la lneag=cpodemos incrementar o disminuir el valor def. Slo cuandog=c(el contorno que estamos siguiendo) toca tangencialmente (no corta) una curva de nivel def, no se incrementa o disminuye el valor def. Esto ocurre en el extremo local restringido y en lospuntos de inflexinrestringidos def.

    Un ejemplo familiar puede ser obtenido de los mapas climatolgicos, con sus curvas de nivel de presin y temperatura (isbaras e isotermas respectivamente): el extremo restringido ocurrir donde los mapas superpuestos muestren curvas que se tocan.Geomtricamente traducimos la condicin de tangencia diciendo que los gradientes defygson vectores paralelos en el mximo. Introduciendo un nuevo escalar, , resolvemosUna vez determinados los valores de , volvemos al nmero original de variables y as continuamos encontrando el extremo de la nueva ecuacin no restringida.

    [f(x,y) - (g(x,y) c)] = 0para 0.

  • El mtodo de los multiplicadores de LagrangeEjemplo

  • Criterio de la segunda derivada para Extremos con RestriccinEl caso bidimensional

  • El caso n-dimensional

  • Mtodo de Jacobi Los siguientes cuatro elementos conforman la resolucin de un problema mediante Programacin Dinmica:

    Principio de Optimalidad de BellmanDefinicin Recursiva de la solucin optimalEnfoque ascendenteBsqueda solucin optimaDada una secuencia ptima de decisiones, toda subsecuencia de ella es, a su vez, ptimaNo importa cules fueron los estados y decisiones iniciales, las decisiones restantes constituirn una poltica ptima con respecto al estado resultante de la primera decisin.El problema se divide en subproblemas, y estos se resuelven recordando las soluciones por si fueran necesarias nuevamente. Es una combinacin de memoizacin y recursin.Todos los problemas que puedan ser necesarios se resuelven de antemano y despus se usan para resolver las soluciones a problemas mayores.

  • Mtodo de Jacobi

  • Algoritmo El mtodo de Jacobi se puede escribir en forma dealgoritmode la siguiente manera:ConvergenciaEl mtodo de Jacobi siempre converge si la matriz A es estrictamente diagonal dominante y puede converger incluso si esta condicin no se satisface.Para verificar la convergencia del mtodo se calcula elradio espectral():Es la condicin necesaria y suficiente para la convergencia, siendoR=L+U.No es necesario que los elementos de la diagonal en la matriz sean mayores (en magnitud) que los otros elementos (la matriz es diagonalmente dominante), pero en el caso de serlo, la matriz converge.

  • Ejemplo

  • Condiciones Kuhn-Tucker permiten abordar la resolucin de modelos de Programacin No Lineal que consideran tanto restricciones de igualdad como desigualdad. En trminos comparativos las condiciones de KKT son ms generales que el Mtodo de Lagrange el cual se puede aplicar a problemas no lineales que consideran exclusivamente restricciones de igualdad. Problema general de optimizacin

  • Condiciones necesarias de primer ordenCondiciones de regularidad (o cualificacin de las restricciones)

  • Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque CRMF no es equivalente a CRRC. En la prctica, se prefiere cualificacin de restricciones ms dbiles ya que proporcionan condiciones de optimalidad ms fuertes.

  • Condiciones suficientes Ejemplo

  • CONCLUSIONES

  • Referencias Electrnicas- Wenyu Sun; Ya-Xiang Yua (2010). Optimization Theory and Methods: Nonlinear Programming, Springer, ISBN 978-1441937650. p. 541- "The Nature of Mathematical Programming," Mathematical Programming Glossary, INFORMS Computing Society. - W. Erwin Diewert (2008). "cost functions," The New Palgrave Dictionary of Economics, 2nd Edition Contents. - Peter Newman (2008). "indirect utility function," The New Palgrave Dictionary of Economics, 2nd Edition. Contents.

    Bibliografa

    http://investigacionoperativa.es.tl/Programaciona.htm http://dis.unal.edu.co/profesores/jgomez/courses/algorithmics/documents/progDinamica.pdf http://sci2s.ugr.es/docencia/tasb/TA-Tema6-0809.pdf http://www.redalyc.org/src/inicio/ArtPdfRed.jsp?iCve=84920977024 http://es.wikipedia.org/wiki/Programaci%C3%B3n_din%C3%A1mica http://invdeo.blogspot.com.ar/