Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se...

29
Optimización matemática aplicada. Enunciados, ejercicios y aplicaciones del mundo real con MATLAB María Josefa Cánovas, Víctor Huertas, María Sempere

Transcript of Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se...

Page 1: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Optimización matemática aplicada.

Enunciados, ejercicios y aplicaciones del mundo real con MATLAB

María Josefa Cánovas, Víctor Huertas, María Sempere

Page 2: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Optimización matemática aplicada. Enunciados, ejercicios y aplicaciones del mundo real con MATLAB.

© María Josefa CánovasVíctor HuertasMaría Sempere

ISBN: 978-84-9948-243-9Depósito legal: A-801-2010

Edita: Editorial Club Universitario Telf.: 96 567 61 33C/ Decano, n.º 4 – 03690 San Vicente (Alicante)www.ecu.fme-mail: [email protected]

Printed in SpainImprime: Imprenta Gamma Telf.: 965 67 19 87C/ Cottolengo, n.º 25 – 03690 San Vicente (Alicante)[email protected]

Reservados todos los derechos. Ni la totalidad ni parte de este libro puede reproducirse o transmitirse por ningún procedimiento electrónico o mecánico, incluyendo fotocopia, grabación magnética o cualquier almacenamiento de in-formación o sistema de reproducción, sin permiso previo y por escrito de los titulares del Copyright.

Page 3: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Índice general

Introducción 7

I Esquemas teóricos y ejercicios 13

1. Preliminares 15

1.1. Topología de R . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.2. Algunos preliminares de análisis matemático . . . . . . . . . . . . 19

1.3. Preliminares de álgebra lineal . . . . . . . . . . . . . . . . . . . . 21

1.4. Preliminares de análisis convexo . . . . . . . . . . . . . . . . . . 23

2. Optimización sin restricciones 35

2.1. Definiciones y primeros ejemplos . . . . . . . . . . . . . . . . . . 35

2.2. Condiciones de optimalidad . . . . . . . . . . . . . . . . . . . . . 39

2.3. Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.4. Los casos convexo y cuadrático . . . . . . . . . . . . . . . . . . . 52

3. Optimización con restricciones 57

3.1. Notación y definiciones . . . . . . . . . . . . . . . . . . . . . . . . 58

3.2. Las condiciones de Karush, Kuhn y Tucker . . . . . . . . . . . . 61

3.2.1. Hipótesis de cualificación de restricciones . . . . . . . . . 64

3.2.2. Condición de optimalidad de primer orden . . . . . . . . . 66

3.3. Condiciones de optimalidad de segundo orden . . . . . . . . . . . 67

3.4. Interpretación de los multiplicadores de KKT . . . . . . . . . . . 76

3.5. Optimalidad global . . . . . . . . . . . . . . . . . . . . . . . . . . 78

3

Page 4: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

4 Optimización matemática aplicada

3.5.1. Aplicación del Teorema de Weierstrass . . . . . . . . . . . 78

3.5.2. El caso convexo . . . . . . . . . . . . . . . . . . . . . . . . 80

3.5.3. El caso cuadrático . . . . . . . . . . . . . . . . . . . . . . 83

3.6. Esquema de resultados y ejercicios resueltos . . . . . . . . . . . . 87

II Prácticas de optimización con MATLAB 103

4. Prácticas de optimización sin restricciones 105

4.1. Cálculo matricial y gráficos con MATLAB (práctica 1) . . . . . 106

4.1.1. Cálculos directos y variables . . . . . . . . . . . . . . . . . 107

4.1.2. Vectores y matrices . . . . . . . . . . . . . . . . . . . . . . 110

4.1.3. Cómo pedir ayuda . . . . . . . . . . . . . . . . . . . . . . 113

4.1.4. Gráficos en 2 y 3 dimensiones . . . . . . . . . . . . . . . . 118

4.1.5. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . 122

4.2. Optimización sin restricciones con la herramienta de matemática

simbólica (práctica 2) . . . . . . . . . . . . . . . . . . . . . . . . 123

4.2.1. Optimización de funciones de una variable . . . . . . . . . 124

4.2.2. Optimización de funciones de varias variables . . . . . . . 128

4.2.3. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . 132

4.3. Funciones básicas de optimización sin restricciones (práctica 3) . 133

4.3.1. Optimización cuadrática sin restricciones con ayuda de

quadprog . . . . . . . . . . . . . . . . . . . . . . . . . . 133

4.3.2. Optimización no lineal sin restricciones con ayuda de fmi-

nunc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

4.3.3. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . 145

5. Prácticas de optimización con restricciones 147

5.1. Optimización lineal y cuadrática con linprog y quadprog (prác-

tica 4) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

5.1.1. Sintaxis de la función linprog . . . . . . . . . . . . . . . 148

5.1.2. Sintaxis de la función quadprog . . . . . . . . . . . . . . 153

5.2. Optimización no lineal con fmincon (práctica 5) . . . . . . . . . 158

5.2.1. Definición de las restricciones en un M-archivo . . . . . . 159

Page 5: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Índice general 5

5.2.2. Definición de la función objetivo en un M-archivo . . . . . 161

5.2.3. Algunos parámetros y mensajes de parada . . . . . . . . . 161

5.2.4. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . 168

III Aplicaciones 171

6. Aplicaciones de la Programación Lineal 173

6.1. Introducción: resultados básicos de Programación Lineal y primeros

ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

6.1.1. Un modelo básico del consumidor . . . . . . . . . . . . . . 175

6.1.2. Resolubilidad con conjunto factible no acotado . . . . . . 178

6.1.3. Un problema de transporte . . . . . . . . . . . . . . . . . 181

6.2. Regresión lineal: Modelos MINMAD y MINMAXAD . . . . . . . 183

6.2.1. Planteamiento del modelo . . . . . . . . . . . . . . . . . . 183

6.2.2. Resolución con MATLAB . . . . . . . . . . . . . . . . . . 191

6.2.3. Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . 198

6.2.4. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . 205

6.3. Aplicación al cálculo de la eficiencia. . . . . . . . . . . . . . . . . 208

6.3.1. Resolución con MATLAB . . . . . . . . . . . . . . . . . . 217

6.3.2. Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . 219

6.3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

7. Aplicaciones de la Programación No Lineal 233

7.1. Localización de una antena WIFI . . . . . . . . . . . . . . . . . . 233

7.1.1. Resolución con MATLAB . . . . . . . . . . . . . . . . . . 239

7.2. Ubicación de una antena de telefonía móvil . . . . . . . . . . . . 240

7.2.1. Ejercicio propuesto: Instalación de una plataforma de sal-

vamento marítimo . . . . . . . . . . . . . . . . . . . . . . 242

7.3. Ajuste por mínimos cuadrados . . . . . . . . . . . . . . . . . . . 243

7.3.1. Ajuste a modelos lineales sin restricciones . . . . . . . . . 243

7.3.2. Ajuste a modelos lineales con restricciones: un problema

de reacciones químicas . . . . . . . . . . . . . . . . . . . . 246

7.3.3. Resolución con MATLAB . . . . . . . . . . . . . . . . . . 247

Page 6: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

6 Optimización matemática aplicada

7.3.4. Ejercicio propuesto: Un modelo explicativo del precio de

la vivienda . . . . . . . . . . . . . . . . . . . . . . . . . . 249

7.3.5. Ajuste a modelos no lineales: Un modelo de producción

basado en la función de producción de Cobb-Douglas . . . 251

7.4. Distancia de un punto a un poliedro . . . . . . . . . . . . . . . . 254

7.4.1. Ilustración: El problema de la grúa . . . . . . . . . . . . . 254

7.4.2. Planteamiento general . . . . . . . . . . . . . . . . . . . . 256

7.4.3. Resolución con MATLAB . . . . . . . . . . . . . . . . . . 257

7.4.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 259

7.5. Distancia entre dos poliedros . . . . . . . . . . . . . . . . . . . . 261

7.5.1. Ilustración: Construcción de una zanja para conectar dos

recintos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261

7.5.2. Planteamiento general . . . . . . . . . . . . . . . . . . . . 262

7.5.3. Resolución con MATLAB . . . . . . . . . . . . . . . . . . 263

7.5.4. Ejercicio propuesto: Construcción de un paso elevado . . . 265

7.6. Problema de la cartera óptima . . . . . . . . . . . . . . . . . . . 266

7.6.1. Ilustración: Un problema de inversión en diferentes em-

presas del IBEX35 . . . . . . . . . . . . . . . . . . . . . . 266

7.6.2. Planteamiento general . . . . . . . . . . . . . . . . . . . . 267

7.6.3. Resolución con MATLAB . . . . . . . . . . . . . . . . . . 270

7.7. Dos modelos sencillos de diseño industrial . . . . . . . . . . . . . 278

7.7.1. Diseño de un contenedor para transportar arena . . . . . 278

7.7.2. Construcción de una tubería . . . . . . . . . . . . . . . . 282

7.8. Un problema de engorde del ganado vacuno . . . . . . . . . . . . 284

A. Creación de una base de datos con Excel 289

Bibliografía 295

Símbolos y abreviaturas 297

Índice alfabético 299

Page 7: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Introducción

El presente libro versa principalmente sobre el planteamiento y la resolución

(analítica y con ayuda del programa informático MATLAB1) de problemas de

optimización no lineal, con diferentes incursiones en la optimización lineal. Así

pues, el objetivo fundamental del libro es proporcionar herramientas analíticas

y computaciones para la búsqueda de máximos o mínimos de una determinada

función objetivo dentro del conjunto de soluciones factibles, el llamado con-

junto factible, definido como el conjunto de soluciones de un cierto sistema de

ecuaciones e inecuaciones llamadas restricciones del problema (véase (3.1) para

una formulación matemática del modelo). Se considera también, en una primera

etapa, el caso de problemas de optimización sin restricciones (véase (2.1) para

un planteamiento formal). Cuando tanto la función objetivo como el sistema

de restricciones son lineales, estamos ante un problema de Programación Lineal

(PL para abreviar); en otro caso, en el que alguna de las mencionadas funciones

es no lineal, nos encontramos ante un problema de Programación No Lineal (que

abreviamos por PNL).

Trabajaremos en el contexto de problemas con una cantidad finita de va-

riables de decisión (cada una de ellas tomando valores en el conjunto de los

números reales) y una cantidad finita de restricciones. Ambas, PL y PNL, son

ramas de la Programación Matemática (PM), la cual se ocupa del estudio teórico

y práctico de problemas de optimización generales, incluyendo también la Pro-

gramación Entera, Programación Multiobjetivo, Programación Semi-Infinita e

Infita, etc. En lo que sigue emplearemos indistintamente los términos progra-

1MATLAB es marca registrada de The MathWorks, Inc.

(véase www.mathworks.com/trademarks)

7

Page 8: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

8 Optimización matemática aplicada

mación y optimización; así por ejemplo, PNL y optimización no lineal serán

empleados como sinónimos.

A efectos de la teoría, por simplicidad en los resultados, el problema de

optimización siempre será considerado en el formato de “minimizar” con res-

tricciones expresadas en términos de desigualdades en el sentido de ‘≤’. Nóteseque no es restrictivo adoptar siempre este formato, pues todo problema escrito

en términos de “maximizar” es equivalente al de minimizar el opuesto de la fun-

ción objetivo original. Además, obviamente toda restricción del tipo ‘≥’ puedeescribirse en el formato de ‘≤’ sin más que multiplicar ambos miembros de ladesigualdad por −1 y toda igualdad ‘=’ puede expresarse en términos de dosdesigualdades.

Breves notas históricas. Es bien sabido que el teorema de las condiciones

de Karush, Kuhn y Tucker (véase la sección 3.2) constituye un pilar básico en la

teoría y los métodos de la PNL, y que éste se verifica bajo una amplia colección

de hipótesis, llamadas hipótesis de cualificación de restricciones; de hecho, la

búsqueda de nuevas hipótesis de cualificación de restricciones constituye actual-

mente una línea activa de investigación.

Conceptualmente, el antecedente directo a las condiciones de Karush, Kuhn

y Tucker (KKT por brevedad) lo encontramos en el llamadométodo de los multi-

plicadores de Lagrange, publicado por este autor en 1788, en su libro Mécanique

Analytique. El método de los multiplicadores de Lagrange se aplica a problemas

de optimización con restricciones de igualdad, mientras que las condiciones de

KKT se establecen para problemas de optimización con desigualdades. A pesar

de que, en primera instancia, puede parecer que el salto conceptual de problemas

con igualdades a problemas con desigualdades no es muy grande, la teoría de

las condiciones de KKT no aparece hasta mediados del siglo XX. Seguidamente

se indican algunas fechas clave en el desarrollo de la PNL.

El caso de problemas de PNL con restricciones de desigualdad fue ya con-

siderado por Fourier en 1798, también en el contexto de la Mecánica Analítica,

aportando algunas ideas fundamentales acerca de condiciones necesarias de opti-

malidad para cierto problema de equilibrio mecánico. Estas condiciones, para di-

Page 9: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Introducción 9

cho problema específico, fueron demostradas por Farkas en 18982. Véase Prékopa

[22] para mayor detalle sobre los comienzos de la teoría de la optimización tal y

como la conocemos hoy en día.

El tratamiento sistemático de problemas de PNL con restricciones de de-

sigualdad fue iniciado por Karush en 1939, y Kuhn y Tucker en 1951. Estos

autores obtuvieron de forma independiente las condiciones necesarias de op-

timalidad (local), referidas en párrafos anteriores como condiciones de KKT.

Desde la publicación de Kuhn y Tucker [15], diferentes autores han dedicado

un notable esfuerzo a la obtención de las condiciones de KKT bajo diferentes

hipótesis de cualificación de restricciones. Un excelente trabajo de recopilación

de casi una veintena de estas cualificaciones de restricciones y las relaciones

existentes entre ellas lo encontramos en Peterson [20]. Citaremos, por ejemplo,

las hipótesis de cualificación de restricciones de Slater, Mangasarian, Cottle,

Mangasarian-Fromovitz, Kuhn-Tucker, Arrow-Hurwicz-Uzawa, Abadie y Guig-

nard.

Resumen de contenidos. El libro está estructurado en tres partes bien

diferenciadas y precisamente la composición de contenidos de estas tres partes

es la principal característica que diferencia a ésta de otras obras que podemos

encontrar en la literatura sobre optimización matemática. La selección de con-

tenidos del libro está inspirada en la vertiente práctica de las asignaturas de Pro-

gramación No Lineal y Modelos de Optimización (con un total de 7,5 créditos

teóricos y 6 créditos prácticos), impartidas en la Universidad Miguel Hernández

de Elche (UMH) por M.J. Cánovas, coautora de la presente obra.

La parte I recoge los enunciados fundamentales de la teoría de la PNL ilustra-

dos con diferentes ejemplos y ejercicios resueltos. Los autores han prestado es-

pecial atención a los aspectos didácticos y al rigor matemático a la hora de

introducir los diferentes conceptos y resultados, así como a la completitud de

los mismos. Concretamente, se enuncian las condiciones de KKT bajo determi-

nadas hipótesis de cualificación de restricciones. Este libro incluye tres de estas

hipótesis, seleccionadas por criterios didácticos y de utilidad práctica. También

2Aunque la prueba de este resultado se encuentra en un trabajo de este autor publicado en

húngaro en 1898, la referencia más extendida es Farkas [8].

Page 10: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

10 Optimización matemática aplicada

se enuncian las condiciones de optimalidad local de segundo orden, un teorema

sobre la interpretación de los llamados multiplicadores de KKT y diferentes re-

sultados sobre la optimalidad global. Además de los contenidos propios sobre

PNL, por motivos de completitud, la obra incorpora un capítulo de preliminares

donde se recogen las herramientas básicas necesarias provenientes del análisis

matemático, del álgebra lineal y del análisis convexo.

La parte II presenta las instrucciones básicas del manejo de MATLAB rela-

tivas a la resolución de problemas de PL y PNL. Los contenidos de esta parte,

agrupados en dos capítulos, están pensados para ser impartidos en diferentes

sesiones de prácticas con ordenador (en un total de 5 sesiones como se indi-

ca en las secciones correspondientes) con una duración total aproximada de 10

horas. Concretamente, esta parte presenta las instrucciones básicas para la re-

presentación gráfica de funciones en 2 y 3 dimensiones, el cálculo diferencial y

resolución de sistemas de ecuaciones en el formato de la matemática simbóli-

ca, y las funciones implementadas en MATLAB que resuelven problemas de

optimización con y sin restricciones.

En relación con estas dos primeras partes, los autores han optado por incluir

los enunciados teóricos de optimización clásica sin demostración, y la descripción

a nivel de usuario de las instrucciones básicas de MATLAB, sin entrar en los

detalles técnicos de los algoritmos empleados, con el fin de dar cabida a la tercera

parte del libro.

La parte III recoge diferentes aplicaciones de la PL y la PNL expuestas con

detalle. La mayor parte de estas aplicaciones incluyen motivaciones y justifi-

caciones teóricas expuestas con rigor, así como un tratamiento sistemático de

su resolución con la correspondiente implementación en el lenguaje de progra-

mación de MATLAB.

La conjunción en esta obra de las tres partes que la componen la hacen,

hasta donde hemos podido comprobar, diferente de las diversas opciones que

encontramos en la literatura.

Finalidad y ubicación de la obra en la literatura existente. En los

últimos años, paralelamente al desarrollo de los ordenadores, el estudio de la

optimización ha experimentado un notable auge. De hecho, esta materia se va

Page 11: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Introducción 11

incorporando, cada vez más, a las titulaciones tanto de naturaleza teórica, como

los grados en matemáticas, como las de corte más aplicado.

El manuscrito surge con una doble finalidad. Por un lado, pretende servir

de bibliografía básica en asignaturas de optimización aplicada, impartidas en

diferentes ingenierías, en grados y postgrados de economía, estadística, medicina,

etc. Por otro, se trata de un libro de problemas de PNL y de consulta sobre

diferentes aplicaciones de la PL y la PNL en grados y postgrados relacionados

con la optimización teórica y aplicada (por ejemplo, en carreras de matemáticas).

Al mismo tiempo, los contenidos del manuscrito pretenden ser objeto de consulta

de profesionales de diferentes campos relacionados con la logística y la toma de

decisiones.

Como se ha comentado anteriormente, hasta donde los autores han podi-

do comprobar, no existe en la literatura otro libro de características similares.

Se enuncian con todo rigor los conceptos y resultados teóricos esenciales de

PNL, se muestran a nivel instrumental las herramientas computaciones que

ofrece el MATLAB para la resolución de problemas de PL y PNL, y se apli-

can estos conocimientos al desarrollo teórico y la resolución, con alto grado de

generalidad, de una selección de aplicaciones (en ocasiones empleando grandes

bases de datos y programas específicos elaborados por los autores en el lenguaje

del MATLAB). Con todo, la referencia más cercana a la temática del presente

libro es Venkataraman [27].

Pueden encontrarse en la literatura excelentes monografías donde se exponen

la teoría y los métodos de la PNL con todo rigor, incluyendo las demostraciones

de las condiciones de optimalidad y las pruebas relacionadas con la convergencia

de algoritmos de PNL. Dentro de este grupo de publicaciones citaremos Bazaraa

et ál. [4], Bertsekas [5], Fletcher [9] y Luenberger [16].

También encontramos textos de teoría y/o ejercicios dedicados al estudio de

las condiciones de optimalidad y que se caracterizan por su precisión y rigor

matemático, como son Barbolla et ál. [2] y [3], Díaz et ál. [7] y Novo [17].

Por otro lado, existen textos de carácter general sobre los modelos y métodos

de la Investigación Operativa, que dedican alguno de sus temas a dar una breve

introducción a la PNL, de entre los que podemos citar Hillier y Lieberman [13],

Prawda [21], Taha [26] y Winston [28].

Page 12: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

12 Optimización matemática aplicada

Finalmente, comentamos que también existen manuales sobre MATLAB con

aplicaciones a diferentes campos, y que dedican algún capítulo a la resolución

de problemas de optimización. Citamos, por ejemplo, Pérez [19].

El programa MATLAB en la enseñanza de la PNL. Desde el pun-

to de vista didáctico, MATLAB presenta diferentes virtudes: además de incluir

una herramienta especifica de optimización (optimization toolbox), permite re-

presentar las gráficas y curvas de nivel de funciones de una o dos variables, lo

que ayuda a desarrollar la intuición del alumno en relación con los conceptos de

óptimo local y global. Además, contiene herramientas de matemática simbólica

que permiten ilustrar los resultados teóricos sobre condiciones de optimalidad

mediante la resolución de ejercicios, tal y como se haría de forma analítica con

lápiz y papel. Además, MATLAB permite desarrollar nuevos programas, por

ejemplo, para sistematizar la búsqueda de soluciones óptimas en determinadas

situaciones reales (tal y como se hace en la parte III del libro). También, permite

implementar algoritmos de optimización, aunque éste no es uno de los objetivos

del libro. Finalmente, es destacable la presencia del MATLAB en el ámbito uni-

versitario, puesto que presenta numerosas utilidades, no solo para matemáticos,

sino también para ingenieros, químicos, informáticos, etc.

Agradecimientos. Los autores agradecen al profesor José María Amigó, en

calidad de director del Departamento de Estadística, Matemáticas e Informática

de la Universidad Miguel Hernández de Elche, el apoyo prestado durante la

elaboración de este libro, formalizado a través del contrato de prácticas internas

de María Sempere bajo la tutela de María Josefa Cánovas. Por otro lado, los

autores manifiestan su agradecimiento al profesor Juan Parra por su inestimable

ayuda en el proceso de revisión de la obra, tanto por su minuciosa corrección de

los contenidos matemáticos como por sus comentarios y sugerencias sobre los

aspectos didácticos. Asimismo, los autores desean agradecer la supervisión y los

consejos del profesor Marco A. López en relación con el enfoque y la selección

de contenidos del libro. Finalmente, los autores agradecen a Pascual Bonmatí

su ayuda y confianza depositadas en este proyecto.

Page 13: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Parte I

Esquemas teóricos y ejercicios

Page 14: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1

Preliminares

1.1. Topología de R

En lo que sigue R representa al producto cartesiano

()z }| {R× · · · × R siendo

R = ]−∞+∞[ el conjunto de los números de reales. Las diferentes coordenadasde ∈ R cuando sea 1 se distinguirán mediante subíndices; así escribire-

mos = ()=1 En general, los superíndices se emplearán para distinguir

diferentes elementos de R así, por ejemplo, 1 =¡1¢=1

Por defecto en-

tenderemos que cualquier vector ∈ R está expresado como vector columna y

0 representará su traspuesto; esto es, 0 = (1 2 ). No obstante, cuando

= (1 )0 ∈ R figure como argumento de una función : R → R por

simplicidad, escribiremos (1 ) para denotar a () = ¡(1 )

0¢ Es bien sabido que R es un espacio vectorial con las operaciones suma y

producto por escalar dadas por

+ = ( + )=1 = ()=1 con ∈ R ∈ R

Definición 1.1 Una norma definida en R es una aplicación k·k : R →[0+∞[ que verifica las propiedades:

(i) kk = 0 si, y solo si, = 0;(ii) kk = || kk para todo ∈ R y todo ∈ R;

(iii) k+ k ≤ kk+ kk para cualesquiera ∈ R

15

Page 15: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

16 Optimización matemática aplicada

Definición 1.2 Una distancia definida en R es una aplicación : R×R →[0+∞[ que verifica las propiedades:

(i) ( ) = 0 si, y solo si, = ;

(ii) ( ) = ( ) para cualesquiera ∈ R

(iii) ( ) ≤ ( ) + ( ) para cualesquiera ∈ R

Observación 1.1 Cualquier norma en R, k·k permite definir una distanciadada por

( ) = k− k

Ejemplo 1.1 (p-normas) Un caso particular de norma es la llamada -norma,

k·k para ∈ ]1+∞[ definida por

kk =Ã

X=1

()

! 1

∈ R

Un caso especialmente importante es el de la norma k·k2 también llamadanorma euclídea. Es la norma usual de R para medir distancias en línea recta:

2 ( ) = k− k2 = 2

vuut X=1

( − )2 para cualesquiera ∈ R

El producto escalar usual entre dos vectores de R guarda la siguiente relación

con las normas euclídeas de ambos1:

0 =X=1

≤ kk2 kk2 (1.1)

Ejemplo 1.2 (Normas k·k1 y k·k∞) Otras normas de interés en casos prác-ticos son las definidas de la siguiente forma

kk1 := |1|+ |2|+ + || y kk∞ := max {|| : = 1 2 } ∈ R

donde max representa el máximo. Dichas normas inducen las correspondientes

distancias

1 ( ) :=

X=1

| − | y ∞ ( ) := max {| − | : = 1 2 } ∈ R

1En general, |0| ≤ kkkk

(desigualdad de Hölder) siendo 1 tales que 1+1 =

1 siendo = = 2 un caso particular.

Page 16: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1. Preliminares 17

En lo que sigue 0 denotará al vector de R que tiene todas sus coordenadas

nulas.

Definición 1.3 (Bolas) Dada una norma k·k : R → [0+∞[, y dados ∈ R

y 0 la bola abierta centrada en y de radio (asociada a la norma k·k)es el subconjunto de R dado por

( ) = { ∈ R | ( ) = k− k }

La bola unidad abierta (0 1) asociada a una norma genérica k·k se re-presentará simplemente por La bola unidad abierta asociada la norma k·k1(respectivamente k·k2 y k·k∞) se representa por 1 (respectivamente 2 y ∞);véase una ilustración en la figura 1.1.

x

B

B1

B2

0n

1

Figura 1.1: Bolas asociadas a las normas k·k1 k·k2 y k·k∞.

Definición 1.4 (Entornos y abiertos) Dada una norma k·k y dado ∈ R

llamamos entorno de a un subconjunto ⊂ R tal que

( ) ⊂ para algún 0

Un abierto en R será un subconjunto ⊂ R que tiene la propiedad de ser

entorno de todos sus puntos. En otras palabras, ⊂ R es abierto si para

cualquier ∈ existe 0 tal que ( ) ⊂

Teorema 1.1 Todas las normas de R definen la misma topología (la misma

familia de abiertos).

Definición 1.5 (Cerrado) Un subconjunto ⊂ R es cerrado si su comple-

mentario, R\ es abierto.

Page 17: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

18 Optimización matemática aplicada

Definición 1.6 (Punto interior y frontera) Dados ∈ R ⊂ R se dice

que:

(i) El punto es interior a si existe algún 0 tal que () ⊂ ;

(ii) El punto está en la frontera de si para cualquier 0 se tiene que

( ) ∩ 6= ∅ y ( ) ∩ (R\) 6= ∅

El conjunto de todos los puntos interiores a se representa por int () y el de

los puntos de la frontera por bd () (del inglés, boundary). La clausura de un

conjunto ⊂ R es la unión de su interior y su frontera:

cl () = int () ∪ bd ()

Definición 1.7 (Acotado) Un subconjunto ⊂ R se dice acotado si existealguna constante 0 tal que

⊂ (0)

Definición 1.8 Un subconjunto ⊂ R es compacto2 si es cerrado y acotado.

Definición 1.9 (Función continua) Una función : R → R es continua

si para cualquier abierto ⊂ R se tiene que

−1 () := { ∈ R | () ∈ } es abierto.

La definición anterior puede enunciarse también en términos de conjuntos

cerrados: : R → R es continua si para cualquier cerrado ⊂ R se tiene

que −1 () es también cerrado.

Ejemplo 1.3 (Cerrados como solución de sistemas) En la formulación de

problema de PNL con restricciones se considerarán conjuntos descritos de la

siguiente manera

:= { ∈ R | () ≤ 0 = 1 2 } 2Por motivos didácticos, se introducen los compactos como los conjuntos cerrados y acota-

dos. Es bien sabido que la compacidad suele definirse en términos más generales, y la propiedad

de ser cerrado y acotado es una caracterización de la compacidad en R El hecho de ser una

caracterización nos permite adoptarla como definición alternativa.

Page 18: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1. Preliminares 19

donde, para todo : R → R es una función continua Veamos que es un

cerrado. Si consideramos la función

= (1 ) : R → R

nótese que otra forma de expresar es como sigue:

:= −1 (]−∞ 0]) = { ∈ R | () ∈ ]−∞ 0] = 1 }

Puesto que ]−∞ 0] ⊂ R es cerrado, tenemos que es cerrado.

1.2. Algunos preliminares de análisis matemático

Dada una función : ⊂ R → R siendo abierto, y dado ∈ como es

habitual, () y 2

() representan, respectivamente, la derivada parcial

de con respecto a en el punto y la derivada parcial segunda de con

respecto a y en Recordemos que es de clase 1 en lo que se escribe

como ∈ 1 () si todas las derivadas parciales de son continuas en y

es de clase 2 en ∈ 2 () si todas las derivadas parciales segundas

son continuas en Siguiendo con las derivadas parciales de orden superior, en

general, ∈ () representa el hecho de que existan las derivadas parciales de

orden ∈ N de y sean continuas en Para indicar que existen las derivadas

parciales de cualquier orden y son continuas en se escribe ∈ ∞ ()

El vector gradiente de en ∈ R

∇ () =µ

()

¶=1

será expresado como vector columna. La matriz hessiana de en ∈ R será

denotada por () esto es,

() =

µ2

()

¶=1

Las siguientes proposiciones enuncian resultados bien conocidos de análisis de

varias variables.

Proposición 1.1 (Simetría de la matriz hessiana) Sean : ⊂ R → R

y ∈ siendo abierto, y supongamos que ∈ 2 () Entonces () es

simétrica.

Page 19: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

20 Optimización matemática aplicada

Proposición 1.2 (Propiedades de las funciones de clase ) Sea ∈ N∪{∞} Se tienen las siguientes propiedades:

(i) (Suma y producto) Si ∈ () entonces + ∈ () y ∈ () ;

(ii) (Cociente) Si ∈ () y ⊂ { ∈ R | () 6= 0} entonces ∈

() ;

(iii) (Producto por escalar) Si ∈ () entonces ∈ () siendo

∈ R;(iv) (Composición) Sean ≡ (1 2 ) : R → R y : R → R tales

que ∈ () para todo = 1 ∈ N y es también de clase en algún

abierto verificando Im ⊂ ⊂ R; entonces ◦ ∈ () Además, si

= ◦ : R → R y ∈ se tiene:

() =

X=1

( ())

() (Regla de la cadena).

Ejemplo 1.4 Ejemplos de funciones de clase 2 en R (de hecho de clase ∞)

son:

(i) : R → R dada por () = 0 + 1+ + con 0 1 ∈ R

(funciones polinómicas);

(ii) : R→ R dada por () = sen (también () = cos);

(iii) : R→ R dada por () = .

Ejemplo 1.5 Un ejemplo de función de clase 2 en R \ {0} es : R→ R dada

por () = 3√ (y, de hecho cualquier raíz de índice impar)

Ejemplo 1.6 Ejemplos de funciones de clase 2 en ]0+∞[ son la funcioneslogaritmo ( () = log ) y raíz cuadrada ( () =

√)

Ejemplo 1.7 Las funciones dadas a través de un cociente de polinomios, () =

0+1++

0+1++con 6= 0 6= 0 ∈ N son de clase 2 sobre el abier-

to = R\© ∈ R |0 + 1+ + = 0

ª(nótese que es abierto, pues el

conjunto de raíces reales del denominador es finito, de hecho, a lo sumo tiene

raíces).

Page 20: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1. Preliminares 21

Ejemplo 1.8 A partir de los ejemplos anteriores, aplicando las propiedades

de cálculo de las funciones de clase puede comprobarse fácilmente que las

siguientes funciones son de clase 2 (de hecho ∞) en R ( se precisa en cada

caso):

(i) : R2 → R () = sen1 sen2;

(ii) : R → R dada por () =

X=1

con ∈ R para todo

= 1 ;

(iii) : R2 → R () = 42 31+sen1 sen2 ;

(iv) : R2 → R () = 3

q1 + 21 + 3 log

¡21 + 22 + 1

¢

1.3. Preliminares de álgebra lineal

Como veremos a continuación, un detalle clave en la verificación de las condi-

ciones de optimalidad de segundo orden es la clasificación de la matriz ()

que en nuestro caso siempre será simétrica (pues supondremos ∈ 2 () con

∈ ⊂ R siendo abierto).

Definición 1.10 (Clasificación de matrices y formas cuadráticas) Sea

= ()=1 una matriz simétrica de orden con ∈ R para todo =

1 y sea : R → R su forma cuadrática asociada, esto es,

() = 0 =

X=1

2 +

X

2 ∈ R

Se dice que:

(i) (o ) es definida positiva si () = 0 0 para todo ∈ R\{0};(ii) (o ) es semidefinida positiva si () = 0 ≥ 0 para todo ∈ R

existiendo algún 6= 0 tal que () = 0;(iii) (o ) es definida negativa si () = 0 0 para todo ∈

R\{0};(iv) (o ) es semidefinida negativa si () = 0 ≤ 0 para todo ∈ R

existiendo algún 6= 0 tal que () = 0;(v) (o ) es indefinida si existen 6= 0 tales que () 0 y () 0

Page 21: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

22 Optimización matemática aplicada

Observación 1.2 Nótese que los casos (iii) y (iv) no son excluyentes en el sen-

tido de que la matriz nula (con todos sus coeficientes cero) es tanto semidefinida

positiva como semidefinida negativa.

La siguiente proposición caracteriza cada una de las situaciones de la defini-

ción anterior en términos de los valores propios de En este momento, recorde-

mos un resultado importante de álgebra lineal que establece que toda matriz

simétrica de orden con coeficientes en R es diagonalizable, esto es, existen una

matriz diagonal una matriz invertible tales que −1 = ; los elemen-

tos diagonales de la matriz son los valores propios de En particular, si

es simétrica, siempre existen valores propios reales (con posibles repeti-

ciones). Recordemos también que los valores propios de coinciden con las

raíces del polinomio característico () := det ( − ) donde representa

a la matriz identidad de orden det ( − ) denota al determinante de la

matriz característica − con ∈ R

Proposición 1.3 (Criterio de los valores propios) Sea una matriz simé-

trica de orden con coeficientes reales y sean 1 2 ∈ R sus valores

propios. Se tiene:

(i) es definida positiva si, y solo si, 1 2 0;

(ii) es semidefinida positiva si, y solo si, 1 2 ≥ 0 y existe algún = 0;

(iii) es definida negativa si, y solo si, 1 2 0;

(iv) es semidefinida negativa si, y solo si, 1 2 ≤ 0 y existe algún = 0;

(v) es indefinida si existen 0 y 0

Proposición 1.4 (Menores y elementos diagonales) Sea = ()=1

una matriz simétrica de orden con coeficientes reales y sean12 los

menores dados por := det³()

=1

´). Se tienen los siguientes enunciados:

(i) es definida positiva si, y solo si, 12 0;

(ii) es definida negativa si, y solo si, sign () = (−1) donde sign ()representa el signo del número real esto es, sign () = 1 si 0 sign () =

−1 si 0 y sign (0) = 0;

Page 22: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1. Preliminares 23

(iii) Si12 −1 0 y = 0 entonces es semidefinida positiva;

(iv) Si es definida positiva, entonces sus elementos diagonales 0

para todo ;

(v) Si es semidefinida positiva, entonces sus elementos diagonales ≥ 0para todo y además det () = 0

Observación 1.3 Nótese que el criterio de los signos de los menores princi-

pales permite caracterizar los casos de matrices definidas positivas y definidas

negativas, sin embargo, en el caso de semidefinida positiva solo se tiene una

condición suficiente. Por otra parte, destacamos las condiciones (iv) y (v) que

proporcionan condiciones necesarias (que no son suficientes) operativas desde el

punto de vista práctico.

El caso de matrices de orden 2 es especialmente simple, y con el valor del

determinante y de la traza (suma de los elementos de la diagonal principal)

pueden caracterizarse todas las situaciones como se especifica en el siguiente

resultado.

Proposición 1.5 (El caso de matrices 2× 2) Sea simétrica de orden 2 y

sea () su traza. Se tiene:

(i) es definida positiva si, y solo si, det () 0 y () 0;

(ii) es semidefinida positiva si, y solo si, det () = 0 y () ≥ 0;(iii) es definida negativa si, y solo si, det () 0 y () 0;

(iv) es semidefinida negativa si, y solo si, det () = 0 y () ≤ 0;(v) es indefinida si, y solo si, det () 0

1.4. Preliminares de análisis convexo

Definición 1.11 Un subconjunto ⊂ R es convexo si para cualesquiera pun-

tos ∈ y cualquier ∈ [0 1] se tiene que

+ (1− ) ∈

Véase la figura 1.2 para una ilustración de la definición de conjunto convexo

y su negación.

Page 23: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

24 Optimización matemática aplicada

y x

x + (1-)y

Convexo

x

No convexo

Figura 1.2: Ilustración de un conjunto convexo y otro no convexo.

Ejercicio 1.1 (Hiperplanos y semiespacios) Demostrar los siguientes enun-

ciados:

(i) (Hiperplanos) Sea 0 6= ∈ R y ∈ R El hiperplano asociado,

=© ∈ R | 0 = 11 + 22 + + =

ª

es convexo.

(ii) (Semiespacios abiertos y cerrados) Sea 0 6= ∈ R y ∈ R Los

semiespacios abierto y cerrado asociados,

=© ∈ R | 0 = 11 + 22 + +

ª

=© ∈ R | 0 = 11 + 22 + + ≤

ª

son conjuntos convexos.

Solución. (i) Sean ∈ esto es, 0 = 0 = ; y sea ∈ [0 1] Setiene:

0 (+ (1− ) ) = 0+ (1− ) 0 = + (1− ) =

luego +(1− ) ∈ (pues verifica la ecuación lineal que define al hiperplano

)

(ii) Veamos que es convexo. Sean ∈ esto es, 0 y 0 ; y

sea ∈ [0 1] en otras palabras ≥ 0 y (1− ) ≥ 0 y al menos uno de ellos espositivo Entonces

0 (+ (1− ) ) = 0+ (1− ) 0 + (1− ) =

Page 24: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1. Preliminares 25

luego + (1− ) ∈ Nótese que se ha aplicado el hecho de que ≥ 0 y(1− ) ≥ 0 para conservar el sentido de la desigualdad ‘≤’ y el que al menos unosea positivo para garantizar que al menos una de las desigualdades es estricta.

La prueba de que es convexo es análoga a la anterior (de hecho más

sencilla) reemplazando ‘’ por ‘≤’.

Ejercicio 1.2 Demostrar que el círculo, dado por

=© ∈ R2 | 21 + 22 ≤ 1

ª,

es un conjunto convexo.

Solución. Sean ∈ ; esto es

21 + 22 ≤ 1 e 21 + 22 ≤ 1

Sea ∈ [0 1] Veamos que

+ (1− ) = (1 + (1− ) 1 2 + (1− ) 2) ∈ ;

esto es, que

(1 + (1− ) 1)2 + (2 + (1− ) 2)

2 ≤ 1En efecto,

(1 + (1− ) 1)2 + (2 + (1− ) 2)

2

= 2¡21 + 22

¢+ (1− )2

¡21 + 22

¢+ 2 (1− ) (11 + 22)

≤ 2 + (1− )2 + 2 (1− ) (11 + 22)

≤ 2 + (1− )2 + 2 (1− ) kk2 kk2= 2 + (1− )2 + 2 (1− )

q21 + 22

q21 + 22

≤ 2 + (1− )2 + 2 (1− ) = (+ (1− ))2 = 1

donde la primera y la última de las desigualdades se obtienen como aplicación

directa de la hipótesis y la segunda desigualdad viene de (1.1). Así pues, +

(1− ) ∈ y por tanto es convexo.

En lo que sigue emplearemos el símbolo ‘:=’ para definir elementos, conjuntos

y funciones; así pues, ‘ :=’ se lee ‘ se define como’ (o ‘ es igual, por

definición, a...’).

Page 25: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

26 Optimización matemática aplicada

Proposición 1.6 Sean 12 ⊂ R convexos. Entonces:

(i) 1 ∩2 ∩ ∩ es convexo;

(ii) 1 + 2 + + :=

(X=1

∈ R : ∈ = 1

)es convexo

(definimos 1 +2 + + = ∅ si algún = ∅)

Ejemplo 1.9 (Poliedros) Las intersecciones de semiespacios e hiperplanos dan

lugar a conjuntos convexos llamados poliedros. En nuestro caso estaremos espe-

cialmente interesados en poliedros cerrados. Formalmente, sean ∈ R ∈ R = 1 y consideremos el conjunto:

=© ∈ R | 0 ≤ = 1

0 = = + 1

ª

suponiendo ∈ N con 1 ≤ (si = solo tendremos inecuaciones) A

partir del ejemplo y la proposición anterior se deduce inmediatamente que es

convexo.

Definición 1.12 (Envoltura convexa) Sean 1 ⊂ R. Se dice que ∈R es una combinación convexa de 1 si existen escalares 1 tales

que

=

X=1

con

X=1

= 1 y 1 ≥ 0

Dado un conjunto arbitrario ⊂ R llamamos envoltura convexa de deno-

tada por () al conjunto de todas las combinaciones convexas (finitas) de

elementos de ; esto es,

() =

(X

=1

| ∈ ≥ 0 = 1

X=1

= 1 ∈ N)

( (∅) := ∅)

Proposición 1.7 Sea ⊂ R La envoltura convexa de es el menor3 con-

vexo que contiene a

3En el sentido de que () es convexo y cualquier otro convexo ⊃ verifica

⊃ ()

Page 26: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1. Preliminares 27

Definición 1.13 Sea ∅ 6= ⊂ R convexo y sea : → R Se dice que es

convexa en si para cualesquiera ∈ y cualquier ∈ [0 1] se tiene:

(+ (1− ) ) ≤ () + (1− ) ()

En la figura 1.3 se ilustra la definición de función convexa. En términos infor-

males, la gráfica de una función convexa queda por debajo (pudiendo coincidir)

del segmento que une a los puntos ( ()) con ( ())

x y x + (1-)y

f(x + (1-)y)

f(x) + (1-) f(y)

Figura 1.3: Ilustración de la definición de función convexa.

Proposición 1.8 (Convexidad bajo hipótesis de diferenciabilidad) Sea

∅ 6= ⊂ R un abierto convexo. Se tiene:

(i) Supongamos que ∈ 1 () Entonces es convexa en si, y solo si,

() ≥ () +∇ ()0 (− ) para cualesquiera ∈ ;

(ii) Supongamos que ∈ 2 () Entonces es convexa en si, y solo si,

para cualquier ∈

() es definida o semidefinida positiva.

La segunda de las caracterizaciones anteriores será utilizada frecuentemente

en ejercicios prácticos (bajo la hipótesis requerida). Se incluye la primera de las

caracterizaciones por motivos de completitud, además de favorecer la intuición:

Page 27: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

28 Optimización matemática aplicada

x x

xxxfxfy '

y

Figura 1.4: Ilustración del apartado (i) de la proposición 1.8

véase la figura 1.4 donde se muestra que, para una función convexa, la aproxi-

mación de Taylor de primer orden (plano tangente) siempre queda por debajo

de la gráfica de la función.

Observación 1.4 Cuando digamos simplemente que es convexa sin especi-

ficar sobre qué convexo, se entenderá que es convexa en todo el espacio R

En este caso el abierto de la proposición anterior es el propio R Concre-

tamente, por ejemplo, en el apartado (ii) de la proposición anterior quedaría:

si ∈ 2 (R) se tiene que es convexa si, y solo si, () es definida o

semidefinida positiva para todo ∈ R

Ejercicio 1.3 Analizar si cada una de las siguientes funciones es convexa en R2

o no.

(i) () = 21 + 422;

(ii) () = 12;

(iii) () = cos1 cos2;

(iv) () = log(21 + 22 + 1)

Solución. (i) Se tiene que

∇ () =µ21

82

¶ y () =

Ã2 0

0 8

! ∈ R2

Nótese que, en este ejemplo, () es constante con respecto a siendo definida

positiva.

Page 28: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

Capítulo 1. Preliminares 29

(ii) Para () = 12 se tiene:

() =

Ã0 1

1 0

! ∈ R2

que es indefinida (véase por ejemplo la proposición 1.5).

(iii) Para () = cos1 cos2 se tiene para todo ∈ R2

∇ () =µ− sen1 cos2− cos1 sen2

¶ y () =

Ã− cos1 cos2 sen1 sen2

sen1 sen2 − cos1 cos2

!

Si evaluamos la matriz hessiana en =¡00

¢ obtenemos

() =

Ã−1 0

0 −1

!

que es definida negativa, luego no es convexa;

(iv) Para () = log(21 + 22 + 1) se tiene:

∇ () =µ 2121+

22+1

2221+

22+1

¶y

() =

⎛⎜⎝ 221+

22+1− 421

(21+22+1)

2−412

(21+22+1)

2

−412(21+

22+1)

22

21+22+1− 422

(21+22+1)

2

⎞⎟⎠

En situaciones como ésta, las condiciones (iv) y (v) de la proposición 1.4 pueden

proporcionar una forma rápida de comprobar que no es convexa: se trata de

encontrar un punto fijo en el que algún elemento diagonal sea negativo; en este

caso, no es necesario evaluar el resto de la matriz. Por ejemplo, si consideramos

=¡20

¢ el elemento 11 de () toma el valor

11 =2

4 + 1− 4 4

(4 + 1)2= − 6

25 0

luego () no es definida ni semidefinida positiva, y por tanto, no es convexa.

En ocasiones, las siguientes propiedades pueden resultar de utilidad a la hora

de comprobar la convexidad de determinadas funciones.

Page 29: Optimización matemática aplicada. - Novedades · El método de los multiplicadores de Lagrange se aplica a problemas de optimización con restricciones de igualdad, mientras que

30 Optimización matemática aplicada

Proposición 1.9 (Propiedades) Sea ∅ 6= ⊂ R un abierto convexo. Se

tiene:

(i) Si : → R son convexas en entonces + es convexa en ;

(ii) Si : → R es convexa en y ≥ 0 entonces es convexa en ;

(iii) Si : → R es convexa en Im 6= ∅ y : Im → R es convexa y

creciente4, entonces ◦ es convexa en ;

(iv) Si : → R es de la forma () = 0+ con ∈ R ∈ R (funciónafín) y : Im → R es convexa, entonces ◦ es convexa en

Ejercicio 1.4 Analizar si las siguientes funciones son convexas.

(i) : R3 → R dada por () = 21+4

42+5

63 ;

(ii) : R3 → R dada por () = (1 + 32 − 43 + 1)2;(iii) : R3 → R () =

p21 + 22 + 23;

(iv) : R3 → R () = |1 − 2 + 43|

Solución. (i) Podemos expresar de la forma = ◦ donde : R3 → R

y : R→ R vienen dadas por

() := 21 + 442 + 5

63 y () =

Es fácil comprobar que es convexa, pues

() =

⎛⎜⎜⎝2 0 0

0 4822 0

0 0 15043

⎞⎟⎟⎠

que es definida o semidefinida positiva para todo (nótese que al ser diagonal,

los elementos diagonales son los valores propios; véase la proposición 1.3).

Por otro lado, es creciente y convexa en R pues

0 () = 00 () = 0 para todo ∈ R

Aplicando entonces la proposición 1.9 (iii) se tiene que = ◦ es convexa.(ii) Como consecuencia inmediata de la proposición 1.9(iv) se tiene que es

convexa.

4Obviamente si está definida sobre algún conjunto convexo que contiene a Im , el resul-

tado es igualmente válido.