Minimización de funciones convexas

24
UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE CIENCIAS F ´ ISICAS Y MATEM ´ ATICAS DEPARTAMENTO DE MATEM ´ ATICAS INFORME FINAL Minimizaci´ on de funciones convexas sobre la envoltura convexa de un conjunto finito de puntos usando el etodo de puntos interiores Maestr´ ıa en Ingenier´ ıa Matem´ atica. AUTOR: LIC. LEYDIDIANA GAMBOA FERRER ASESORA: DRA. JENNY ROJAS JERONIMO TRUJILLO - PER ´ U Febrero - 2015 1

description

tesis sobre minimización de funciones convexas sobre una envoltura convexa

Transcript of Minimización de funciones convexas

Page 1: Minimización de funciones convexas

UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE CIENCIAS FISICAS Y

MATEMATICAS DEPARTAMENTO DE MATEMATICAS

INFORME FINAL

Minimizacion de funciones convexas sobre la envoltura

convexa de un conjunto finito de puntos usando el

metodo de puntos interiores

Maestrıa en Ingenierıa Matematica.

AUTOR: LIC. LEYDIDIANA GAMBOA FERRER

ASESORA: DRA. JENNY ROJAS JERONIMO

TRUJILLO - PERU

Febrero - 2015

1

Page 2: Minimización de funciones convexas

*Dedicatoria

En el transcurso de la realizacion de esta tesis he recibido ayuda, apoyo y confianza de

muchas personas a las que quiero expresar mi agradecimiento. A mi asesora de tesis, Dra.

Jenny Margarita Rojas Jeronimo, quien me ha guiado siempre, con valiosas sugerencias, su

progreso. Tambien quiero agradecer a los profesores de la Maestrıa en Ingenierıa Matematica,

quienes han contribuido a mi formacion.

*Agradecimiento

La presente tesis esta dedicada primeramente a mi Padre Celestial y a Jesucristo porque

sin ellos nada lograrıa en esta vida, en segundo lugar a mis queridos padres Arquımides

Gamboa Orbegoso y Yolanda Ferrer Guzman por su amor y apoyo moral e incondicional

para seguir estudiando y lograr el objetivo trazado para un futuro mejor y ser orgullo para

ellos y de toda la familia, en tercer lugar a mi querido esposo Carlos Michael Gutierrez Ocas

e Hija Camila Michelle por su amor, apoyo y comprension.

Gracias.

2

Page 3: Minimización de funciones convexas

Indice

Introduccion61. Convexidad 8

1.1. Formulacion del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2. Metodos de punto interior 20

2.1. Idea basica del algoritmo del punto interior . . . . . . . . . . . . . . . . . . . 20

3. Algoritmo del punto interior 21

3.1. Algoritmo: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.1.1. Paso de Correccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.1.2. Paso de Prediccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.1.3. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Conclusiones24 Bibliografıa24

3

Page 4: Minimización de funciones convexas

*Resumen

El presente Informe tiene como objetivo fundamental describir un algoritmo usando el

metodo de puntos interiores para minimizar una funcion convexa f : Rn → R, sobre la envol-

tura convexa de un conjunto finito de m puntos en Rn usando las coordenadas baricentricas

para representar los puntos interiores del poliedro P = conv(Z) donde Z = {x1, · · · , xm} es

el conjunto de m puntos de Rn. En particular el algoritmo puede tambien ser usado para

hallar la proyeccion ortogonal de un punto xc ∈ Rn hacia P .

PALABRAS Y FRASES CLAVES : Minimizacion de funciones convexas, envolvente

convexa. Metodos de punto interior. Coordenadas baricentricas.

4

Page 5: Minimización de funciones convexas

ABSTRACT

In this paper we are describe an interior-point method for minimizing a smooth strictly

convex function f : Rn → R, on the convex hull P of m points in Rn using the barycentric

coordinates for representing points in P and generates points en P . In particular, the algo-

rithm can be use to compute the orthogonal projection of a point xc ∈ Rn hacia P .

Key words: Minimizing convex functions, hull convex. Interior-point methods. Barycentric

coordinates.

5

Page 6: Minimización de funciones convexas

*Introduccion La Optimizacion es muy importante en la resolucion de problemas apli-

cativos, en las diferentes areas de la ciencia, su finalidad es determinar las soluciones que

representen el valor optimo, al maximizar o minimizar una funcion objetivo, la que constitu-

ye una relacion matematica entre las variables de decision, parametros y una magnitud que

representa el objetivo.

Cuando la funcion objetivo y todas las funciones que definen las restricciones son lineales y

son definidas sobre Rn se tiene un problema de optimizacion lineal o tambien conocido como

problema de Programacion lineal (PL) continua, en otro caso, es un problema de Progra-

macion no lineal [3]. Sin embargo cuando la funcion objetivo es una funcion convexa y las

restricciones definen una region convexa, el problema es uno de Programacion convexa, que

es el que vamos a tratar en el presente trabajo[1],[2].

Durante decadas el metodo Simplex ha sido el metodo preferido para resolver problemas de

programacion lineal continua. Sin embargo, desde el punto de vista teorico, el tiempo de

calculo requerido por este metodo, para resolver un problema lineal, crece exponencialmente

a medida que el numero de variables mas el de restricciones del problema aumentan, esto es

segun el tamano del problema. Este crecimiento exponencial corresponde al peor caso posible

y que puede presentarse en muchos casos reales[5].

Muchos investigadores trataron de desarrollar algoritmos cuyos tiempos de calculo crecie-

ra en tiempo polinomial con el tamano del problema. En 1987 Karmarkar[5] anuncio el

desarrollo de un nuevo algoritmo para resolver problemas de PL grandes, cuya complejidad

computacional es polinomial y resulto altamente competitivo frente al metodo simplex en la

solucion de problemas de grandes dimensiones. Este algoritmo se basa en la busqueda del

optimo a traves de puntos del interior de la region factible, de allı el nombre de algoritmo de

punto interior[6,7]. En realidad el algoritmo de Karmarkar y todas sus variantes se conocen

como algoritmos de punto interior [7]. En este informe presentamos un algoritmo de punto

interior para resolver un problema de optimizacion lineal que define una funcion f : Rn → Rconvexa y diferenciable sujeta a la envoltura convexa de los puntos de Rn, Z = {z1, · · · , zm}.El problema es resolver:

mın f(z) (0.1)

s.a. : z ∈ convZ (0.2)

Se muestra que la principal dificultad para resolver este problema usando el metodo Simplex,

es que conocer explıcitamente convZ no es tarea facil. Por otro lado si m es mayor que

d = dim{convZ} entonces la aplicacion afın Λ := Λ→ convZ tal que α→ Zα no es inyectiva

y en general cualquier x en la envolvente convexa de Z tiene mas de una representacion de

la forma x = Zα, α ∈ Λ.

6

Page 7: Minimización de funciones convexas

Material y Metodos Los materiales de este trabajo estan constituidos por los conceptos

y teorıas a de la programacion lineal, programacion convexa, funciones convexas sobre un

simplex, Coordenadas baricentrica, proyeccion de direcciones sobre simplexes y metodo de

punto interior para problemas de optimizacion lineal. Ademas se hace uso de los conceptos

del algebra lineal y de analisis real.

Se utiliza el metodo constructivo, para la generacion del algoritmo que caracteriza la

metodologıa propuesta, mediante el siguiente procedimiento:

1. Formulacion del problema de minimizar una funcion convexa diferenciable, definida

sobre la envolvente convexa de m puntos cada uno en Rn.

2. Basado en las coordenadas baricentricas, se describe un algoritmo que permite resolver

el problema planteado.

3. Usando el metodo de punto interior para resolver el problema de optimizacion, se

describe un nuevo algoritmo para resolver el problema.

4. Se mostrara las ventajas y desventajas del algoritmo usando el metodo de puntos

interiores.

Resultados El planteamiento general de un problema de Optimizacion que se resuelve es:

Min f(x)

s.a. x ∈ conv(Z)

donde Z = {z1, z2, . . . , zm} es un conjunto finito de puntos en Rn, y Z =

z1

1 z21 . . . zm1

z12 z2

2 . . . zm2...

......

...

z1n z2

n . . . zmn

la matriz n × m con columnas zi y f : Rn → R una funcion convexa diferenciable. Este

problema es equivalente a:

Min g(α)

s.a. α ∈ Λ

donde

g(α) := f(m∑i=1

αizi) = f(Zα)

Λ := {α ∈ Rm : αi ≥ 0,m∑i=1

αi = 1}.

Considerando una funcion f cuadratica y estrictamente convexa, entonces H = ∇2(g(α))

es una matriz fija. Si f es cuadratica, convexa y ∇2(g(α)) = I, entonces f tiene la forma

cuadratica (x− xc)T (x− xc) y en el problema equivalente se precisa encontrar la proyeccion

de xc al poliedro conv(Z) = {Zα : α ∈ ∗}.

7

Page 8: Minimización de funciones convexas

El algoritmo usa las coordenadas baricentricas para representar puntos interiores del poliedro

y generar nuevos puntos en el con coordenadas positiva. En particular el algoritmo puede ser

usado para calcular la proyeccion ortogonal de un punto xc ∈ Rn hacia el poliedro. Analisis

y Discusion

1. Convexidad

Definiciones basicas y algunas propiedades:

Definicion 1.1 Sean x1 , x2 ∈ Rn, el SEGMENTO CERRADO que une los puntos x1 y x2,

es el conjunto denotado por [x1 , x2 ] y definido como:

[x1 , x2 ] := { λ x1 + (1− λ) x2 ∈ Rn tal que λ ∈ [0, 1] }

Definicion 1.2 Sean x1 , x2 ∈ Rn, el SEGMENTO ABIERTO que une los puntos x1 y x2, es el

conjunto denotado por (x1 , x2) y definido como:

(x1 , x2) := { λ x1 + (1− λ) x2 ∈ Rn , tal que λ ∈ 〈0, 1〉 }

Definicion 1.3 Un conjunto X ⊂ Rn es un CONJUNTO CONVEXO, si todo segmento que une

dos elementos arbitrarios de X esta contenido en X. Esto es:

X es un conjunto convexo si y solo si ∀ x1 , x2 ∈ X, [x1, x2] ⊂ X

Equivalentemente:

∀ x1 , x2 ∈ X se tiene que t1 x1 + t2 x2 ∈ X con t1 + t2 = 1, 0 ≤ ti ≤ 1 , i = 1, 2

Las figuras (a) y (b) representan un conjunto convexo y uno no convexo, respectivamente.

Notemos que en el conjunto de la figura (b) existen dos puntos para los que parte del segmento

que los une no esta contenido en dicho conjunto.

Figura 1: a)Conj. convexo. b) Conj. no-convexo

OBS: Por convenio, el conjunto vacıo es convexo.

Definicion 1.4 Sea x ∈ Rn , diremos que x es COMBINACION CONVEXA de los puntos

x1 , x2 , ... , xm ∈ Rn cuando existan m numeros reales t1 , t2 , ... , tm no negativos

y cuya suma sea la unidad, que verifiquen que:

x = t1 x1 + t2 x2 + ... + tm xm

8

Page 9: Minimización de funciones convexas

Es claro que x ∈ Rn es combinacion convexa de x1 , x2 ∈ Rn si y solo si x ∈ [x1 , x2 ]

La siguiente proposicion caracteriza a los conjuntos convexos.

Teorema 1.1 (Caracterizacion de Conjuntos Convexos) Un conjunto no vacıo A ⊂ Rn es

convexo si y solo si

t1 x1 + ... + tm xm ∈ A ∀m ∈ N

∀ xi∈ A donde 0 ≤ t

i≤ 1, i = 1, ...,m tal que

m∑i=1

ti

= 1.

Demostracion:

⇒) Si A es convexo entoncesm∑i=1

tix

i∈ A con x

i∈ A,

m∑i=1

ti

= 1 , 0 ≤ ti≤ 1, i = 1, ...,m.

En efecto, por induccion:

para m = 2 se cumple, pues por definicion A es convexo si se tiene que ∀x1 , x2 t1x1 +t2x2 ∈A donde t1 + t2 = 1 y t1 , t2 ∈ [0, 1]

Para m− 1 (H.I.), supongamos que A es convexo si:

m−1∑i=1

tix

i∈ A ,

m−1∑i=1

ti

= 1 , xi∈ A, 0 ≤ t

i≤ 1, i = 1, ...,m− 1.

Demostremos que se cumple para m , es decir, verificaremos:

m∑i=1

tix

i∈ A ∀xi ∈ A, tal que

m∑i=1

ti

= 1 . . . (∗) , 0 ≤ ti≤ 1, i = 1, ...,m

En efecto:

sabemos que:m∑i=1

tix

i=

m−1∑i=1

tix

i+ tmxm

Sea t =m−1∑i=1

ti

entonces:

m∑i=1

tix

i= t

m−1∑i=1

ti

tx

i+ tmxm

Sea y =m−1∑i=1

ti

txi, como 0 ≤ t

i≤ 1 entonces 0 ≤ ti ≤

m−1∑i=1

ti

= t

luego:

0 ≤ ti

t≤ 1

Ademas:m−1∑i=1

ti

t=

1

t

m−1∑i=1

ti

=1

t. t = 1

y como

xi∈ A

9

Page 10: Minimización de funciones convexas

por lo tanto y ∈ A(por la (H.I.).

Ası tenemos:m∑i=1

tix

i= t y + tm xm , y ∈ A, xm ∈ A

Ademas:

t+ tm =m−1∑i=1

ti+ tm =

m∑i=1

ti

= 1

∴m∑i=1

tix

i∈ A

pues A es convexo.

⇐) Demostraremos que si:

t1 x1 + ... + tm xm ∈ A, ∀m ∈ N,∀ xi∈ A, 0 ≤ t

i≤ 1, i = 1, ...,m

tal quem∑i=1

ti

= 1 entonces A es convexo. En efecto: tomando m = 2 se cumple definicion

de convexidad. 2

Veamos la definicion de funcion convexa y unas propiedades importantes:

Definicion 1.5 Sea f : X → R una funcion definida sobre un conjunto convexo X ⊂Rn (X 6= Φ) , entonces f es una FUNCION CONVEXA sobre X si:

f(t x1 + (1− t) x2) ≤ t f(x1) + (1− t) f(x2) ∀ x1 x2 ∈ X, t ∈ [0, 1]

Definicion 1.6 Sea f : X → R una funcion definida sobre un conjunto convexo X ⊂Rn (X 6= Φ) , entonces f es una FUNCION CONCAVA sobre X si:

f(t x1 + (1− t) x2) ≥ t f(x1) + (1− t) f(x2) ∀ x1 x2 ∈ X , t ∈ [0, 1]

Teorema 1.2 (Continuidad de Funciones Convexas) Sea X ⊂ Rn y sea f : X → R una

funcion convexa, entonces f es continua en el interior de X.

OBS: Diremos que la funcion vectorial f es convexa si cada una de sus funciones compo-

nentes fi

es convexa (analogamente, la concavidad).

Proposicion 1.3 Si, en el problema (PM), X es un subconjunto convexo de Rm y las

funciones f1(x), f2(x), ...., fn(x) son concavas, entonces el conjunto:

A = { u = (u1 , ..., un) ∈ Rn : ∃ x ∈ X con f(x) ≥ u }

es convexo en Rn.

10

Page 11: Minimización de funciones convexas

Demostracion:

Sean u = (u1 , u2 , ..., un) , v = (v1 , v2 , ..., vn) ∈ A y t ∈ [0, 1] . Existen x, x′ ∈ X tales que:

f(x) ≥ u , f(x′) ≥ v

con lo cual:

fi(x) ≥ u

ifi(x′) ≥ v

i∀ i = 1, n

Evidentemente, tx+(1−t)x′ ∈ X, ya que X es convexo, ademas, dado que f es concava,

para i = 1, ..., n, se verifica que:

fi(t x+ (1− t) x′) ≥ t f

i(x) + (1− t) f

i(x′) ≥ t ui + (1− t) vi

de donde tu+ (1− t)v ∈ A, por lo tanto A es convexo. 2

El siguiente resultado garantiza que, para problemas donde la funcion es concava, la lınea

de eficiencia queda determinada mediante el procedimiento de escalarizacion.

Proposicion 1.4 Si, en el problema (PM), X es un subconjunto convexo de Rn y f es

concava, para cada solucion de (PM) x0, existen c1 , c2 , ... , cn ≥ 0 no todos nulos y tales

que x0 es solucion de (PEc).

Demostracion:

Sea x0 solucion de (P.M), y consideremos los subconjuntos de Rn

A = {u ∈ Rn : ∃ x ∈ X con f(x) ≥ u} y B = {u ∈ Rn : u ≥ f(x0)}.

A es convexo por la proposicion anterior, y se demuestra sin ninguna dificultad que B tam-

bien lo es, Ademas, el interior de B es, obviamente, el conjunto formado por los u =

(u1 , u2 , ... , un) ∈ Rn tales que:

ui> f

i(x0), i = 1, ..., n.

De ser x0 solucion de (PM) se obtiene que A∩Bo = ∅, ya que, si existiera u ∈ A∩Bo,

existirıa x ∈ X con fi(x) ≥ u

i, i = 1, ..., n, y u

i> f

i(x0), i = 1, ..., n. Pero entonces:

fi(x) > f

i(x0), i = 1, ..., n,

y por consiguiente, x0 no resolverıa (P.M). De los teoremas de separacion de conjuntos

convexos podemos deducir que existen c1 , c2 , ..., cn no todos nulos y tales que:

n∑k=1

cku

k≤

n∑k=1

ckvk

siempre que (u1 , ..., un) ∈ A y (v1 , ..., vn) ∈ B. En particular, puesto que f(x) ∈ A si

x ∈ X y f(x0) ∈ B, es:n∑k=1

ckfk(x) ≤

n∑k=1

ckfk(x0),

11

Page 12: Minimización de funciones convexas

y x0 resuelve (PEc). Solo falta probar que ningun ci

es negativo. Si alguno lo fuera

(por ejemplo, c1) es claro que para cada z ≤ f1(x0) es (z, f2(x0), ..., fn(x0)) ∈ B y que

f(x0) ∈ A. Por consiguiente:

c1z +n∑k=2

ckfk(x0) ≤

n∑k=1

ckfk(x0),

es decir:

c1z ≤ c1f1(x0) ∀ z < f1(x0)

−c1z ≥ −c1f1(x0)

Como −c1 > 0

z ≥ f1(x0)(→←).

Por lo tanto c1 es positivo. 2

Observaciones: Por consiguiente, si en el problema (PM) la funcion es concava, para

resolverlos basta solucionar los problemas (PEc) con c no negativo. Todas las soluciones

que correspondan a un c positivo son ya soluciones de (PM), ası como las que corresponden

a un c no negativo, siempre que sean unicas. Finalmente, de la ultima proposicion se deduce

que todas las soluciones de (PM) estan entre las soluciones de los problemas (PEc) para

c no negativo.

Para cada c = (c1 , c2 , ... , cn) no nulo y no negativo, se puede suponer que:

n∑k=1

ck

= 1,

ya que, si esta igualdad no se verifica, basta considerar, en lugar de c, el vector:

1n∑k=1

ck

c

y las soluciones de (PEc) no cambian. Por consiguiente, desde un punto de vista intuitivo,

si en un problema practico elegimos un optimo de Pareto calculado mediante un proceso de

escalarizacion, cada ci

es un peso asociado al objetivo fi, que, de alguna manera, mide la

importancia relativa que a fi

le damos frente a los demas objetivos.

CONJUNTOS NOTABLES DE Rn

Definicion 1.7 : Sea a un vector no nulo de Rn, y α ∈ R. Llamaremos HIPERPLANO en

Rn, denotado por H, al conjunto:

H = { x ∈ Rn/ a · x = α }

Lema 1.5 : Un hiperplano H en Rn, es un conjunto convexo.

12

Page 13: Minimización de funciones convexas

Demostracion:

Sean x1 , x2 ∈ H, entonces:

a · x1 = α a · x2 = α

Sea λ ∈ [0, 1] , tenemos:

λ (a · x1) = λ α

(1− λ) (a · x2) = (1− λ) α

sumando miembro a miembro:

λ(a · x1) + (1− λ)(a · x2) = λ α + (1− λ) α

de donde:

λ(a · x1) + (1− λ)(a · x2) = α

Luego usando las propiedades de producto interno, tenemos:

a · (λ x1) + a · ((1− λ)x2) = α

a · (λ x1 + (1− λ) x2) = α

Luego λx1 + (1− λ) x2 ∈ H

∴ H es convexo. 2

Definicion 1.8 : Sea a un vector no nulo de Rn, y α ∈ R. Los conjuntos:

H+ = { x ∈ Rn/ a · x ≤ α }

H− = { x ∈ Rn/ a · x ≥ α }

se denominan SEMIESPACIOS CERRADOS de Rn.

Lema 1.6 : Los semiespacios cerrados H+ y H− son conjuntos convexos.

Demostracion:

Veamos que H+ es convexo:

Sean x1 , x2 ∈ H+, entonces:

a . x1 ≤ α a . x2 ≤ α

Sea λ ∈ [0, 1] , tenemos:

λ (a · x1) ≤ λ α

(1− λ) (a · x2) ≤ (1− λ) α

sumando miembro a miembro:

λ (a · x1) + (1− λ) (a · x2) ≤ λ α + (1− λ) α

13

Page 14: Minimización de funciones convexas

cancelando en el segundo miembro:

λ (a · x1) + (1− λ) (a · x2) ≤ α

Utilizando las propiedades de producto interno:

a · (λ x1) + a · ((1− λ)x2) ≤ α

a · (λx1 + (1− λ)x2) ≤ α

Luego λx1 + (1− λ) x2 ∈ H+

∴ H+ es convexo. 2

Analogamente para H−.

Proposicion 1.7 : Sean A1, A2 ⊂ Rn dos conjuntos convexos, se cumplen las siguientes

afirmaciones:

1. A1 ∩ A2 es un conjunto convexo.

2. A1 + A2 = { x1 + x2 / x1 ∈ A1 , x2 ∈ A2 } es convexo.

3. A1 − A2 = { x1 − x2 / x1 ∈ A1 , x2 ∈ A2 } es convexo.

4. La interseccion arbitraria de un numero finito o infinito de conjuntos convexos es un

conjunto convexo.

Demostracion:

2. Sean u , v ∈ A1 + A2, entonces:

u = x1 + x2 donde x1 ∈ A1 y x2 ∈ A2

v = y1 + y2 donde y1 ∈ A1 y y2 ∈ A2

Sea λ ∈ [0, 1], tenemos:

λu = λx1 + λx2

(1− λ)v = (1− λ)y1 + (1− λ)y2

sumando miembro a miembro:

λu+ (1− λ)v = λx1 + λx2 + (1− λ)y1 + (1− λ)y2

λ u+ (1− λ) v = λ x1 + (1− λ) y1 + λ x2 + (1− λ) y2

Dado que A1 y A2 son conjuntos convexos, entonces:

λx1 + (1− λ) y1 ∈ A1

λx2 + (1− λ)y2 ∈ A2

14

Page 15: Minimización de funciones convexas

Por lo tanto:

λ u+ (1− λ) v ∈ A1 + A2. 2

3. De forma analoga, sean u, v ∈ A1−A2, entonces: u = x1−x2 donde x1 ∈ A1 y x2 ∈A2 y v = y1 − y2 donde y1 ∈ A1 y y2 ∈ A2. Sea λ ∈ [0, 1], tenemos: λ u = λ x1 −λx2 ademas (1−λ) v = (1−λ) y1− (1−λ) y2. Sumando miembro a miembro, y ubicando

convenientemente las igualdades anteriores, se tiene:

λ u+ (1− λ) v = (λ x1 + (1− λ) y1︸ ︷︷ ︸∈A1

)− (λ x2 + (1− λ) y2︸ ︷︷ ︸∈A2

)

Dado que A1 y A2 son conjuntos convexos, entonces: λ u+ (1− λ) v ∈ A1 − A2. 2

4. Sea Ai ⊂ Rn, i ∈ I una familia de conjuntos convexos. Supongamos que ∩i∈IAi =

Φ , concluirıa la demostracion. Pero, si la interseccion fuera diferente del vacıo, demos dos

elementos x1 , x2 ∈ ∩i∈IAi. Entonces, x1 ∈ Ai y x2 ∈ Ai , ∀ i ∈ I. Dado que todos los

conjuntos Ai son convexos, tendremos:

tx1 + (1− t)x2 ∈ Ai , ∀ i ∈ I , ∀ t ∈ [0, 1]

Con lo que:

tx1 + (1− t)x2 ∈ ∩i∈IAi , ∀ t ∈ [0, 1]

Esto es, ∩i∈IAi es un conjunto convexo. 2.

Definicion 1.9 : (Envoltura Convexa, Cerradura o Capsula Convexa)

Sea A un conjunto arbitrario en Rn . La ENVOLTURA CONVEXA de A denotado por C0(A)

es la coleccion de todas las combinaciones convexas de A , es decir:

C0(A) = { x ∈ Rn /x =k∑j=1

λj xj ,k∑j=1

λj = 1 , 0 ≤ λj ≤ 1 , xj ∈ A , j = 1, ..., k }

Figura 2: Envolturas convexas de diferentes tipos de conjuntos

15

Page 16: Minimización de funciones convexas

Definicion 1.10 La envoltura convexa de un numero finito de puntos x1 , ..., xk+1⊂ Rn es

llamado POLITOPO .

Si x2 − x1 , x3 − x1 , . . . , xk+1 − x1 son linealmente independientes entonces C0(x1, ..., xk+1)

la envoltura convexa de x1, ..., xk+1 es llamada el SIMPLEX O SIMPLEJO con vertices x1, ..., xk+1.

Definicion 1.11 : La interseccion de un numero finito de semiespacios cerrados de Rn se

denomina CONJUNTO POLIEDRICO O POLIEDRO.

Obs: Un conjunto poliedrico, convexo y acotado es un polıtopo.

Tanto el polıtopo como el poliedro son conjuntos convexos. Es claro que un semiespacio

cerrado es un conjunto cerrado de Rn . Por tanto, un polıtopo, al ser interseccion de cerra-

dos, es tambien un conjunto cerrado. Un polıtopo es, entonces, cerrado y acotado, por tanto

compacto.

Teorema 1.8 (Carathedory) Sea S un conjunto arbitrario en Rn. Si x ∈ C0(S) enton-

ces x ∈ C0(x1, ..., xn+1) donde xj ∈ S , j = 1, ..., n + 1 . En otras palabras, x puede ser

representado como:

x =n+1∑j=1

λj xj ,n+1∑j=1

λj = 1 , λj ≥ 0 , xj ∈ S , j = 1, ..., n+ 1

Demostracion:

Demostraremos que si x ∈ C0(S) entonces:

x =k+1∑j=1

λj xj ,k+1∑j=1

λj = 1 , λj ≥ 0 , xj ∈ S , j = 1, . . . , k + 1

Luego, se puede tener k < n, k = n, k > n, veamos:

1) Si k < n, entonces:

x = λ1 x1 + λ2 x2 + ...+ λk xk,k∑j=1

λj = 1.

Tomando λk+1 = 0, . . . , λn+1 = 0 y xj = xk , j = k + 1, ..., n+ 1, entonces:

x =n+1∑j=1

λj xj ,n+1∑j=1

λj = 1 , λj ≥ 0 , xj ∈ S , j = 1, ..., k + 1

2) Si k = n se tiene la tesis.

3) Si k > n, entonces:

x2 − x1 , x3 − x1 , ... xk+1 − x1︸ ︷︷ ︸mas de n vectores (k vectores)

son linealmente dependientes

16

Page 17: Minimización de funciones convexas

Ası que, existen constantes u2 , ... , uk+1 no todos ceros tales que:

k+1∑j=2

uj (xj − x1) = 0

k+1∑j=2

uj xj =k+1∑j=2

uj x1

Sea u1 = −k+1∑j=2

uj , entoncesk+1∑j=1

uj = 0 , y

k+1∑j=1

uj = u1x1 + u2x2 + ...+ uk+1xk+1

k+1∑j=1

uj xj = u1x1 +k+1∑j=2

uj x1

k+1∑j=1

uj xj =k+1∑j=1

uj x1

k+1∑j=1

uj xj = x1

(k+1∑j=1

uj

)= x1(0)

k+1∑j=1

uj xj = 0

donde algun uj son no nulos, es decir existen algunos uj > 0. Luego:

x =k+1∑j=1

λj xj + 0

x =k+1∑j=1

λj xj − αk+1∑j=1

ujxj = 0

x =k+1∑j=1

(λj − αuj)xj = 0

Para mantener la combinacion convexa se requiere que tengamos λj−αuj ≥ 0, el cual puede

ser cero.

λj ≥ α uj

λjuj≥ α ≥ 0

Entonces, tomando:

α = min {λjuj, uj > 0}

17

Page 18: Minimización de funciones convexas

Existe algun j0 tal que:

α =λ

j0

uj0

Luego:

x =k+1∑j=1

(λj − αuj)xj j 6= j0 .

el cual posee k terminos (pues hay uno que es cero), luego teniendo k + 1 terminos, hemos

llegado a tener k terminos, repitiendo este proceso anterior se llega tener k = n. 2

Definicion 1.12 Un conjunto C 6= ∅ en Rn es denominado CONO con vertice cero si

x ∈ C implica que λ x ∈ C , ∀ λ ≥ 0.

Si el cono C es convexo, se denomina CONO CONVEXO.

Figura 3: Conos convexos

18

Page 19: Minimización de funciones convexas

1.1. Formulacion del problema

Sea f : Rn → R una funcion convexa y diferenciable, si Z = {z1, z2, · · · , zm} es un

conjunto finito de m puntos del espacio euclideano Rn y sea la matriz n × m Z cuyas

columnas son los vectores zi, se considera el problema:

mın f(x) (1.1)

s.a. : x ∈ conv(Z) (1.2)

que es equivalente a resolver el problema:

mın{f(Zα) : α ∈ Λ} (1.3)

La dificultad tıpica al resolver (1.3) es que los puntos factibles x ∈ Z ⊂ R\ son parametri-

zados por m parametros α ∈ Rm, x = Zα donde m� n . Particularmente los parametros α

son hallados de manera unica por x, si conv(Z) es un simplex. Ademas durante la ejecucion

del algoritmo se requerira del calculo de Zα para varios α.

Sea f(α) := f(Zα), g(x) := ∇f(x), g(α) := g(Zα). Entonces

∇f(α) = ZT∇f(Zα), ∇2f(α) = ZT∇2f(Zα)Z

Para aplicar el algoritmo primal de punto interior al problema (1.3), se reformula como:

min{ξ : f(α)− ξ ≤ 0, α ≥ 0, eTα− 1 = 0} (1.4)

El conjunto soluciones factibles estrictas, se denota como S0 y es:

S0 = {(α, ξ) : f(α)− ξ < 0, α > 0, eTα− 1 = 0}

Usando terminos de penalizacion logarıtmica, se introduce la funcion barrera:

Φ(α, ξ) := −ln(ξ − f(α))−m∑i=1

lnαi, (α, ξ) ∈ S0

y con un parametro de penalizacion µ > 0, se define la funcion:

ϕ(α, ξ) :=ξ

µ+ Φ(α, ξ), (α, ξ) ∈ S0

Abreviando α = (α, ξ) = (α, ξ)T y σ = σ(α) := ξ − f(α), A := diag(α). Luego:

∇ϕµ(α) =em + 1

µ+∇Φ(α)

∇Φ(α) =1

α

(∇g(α)− σA−1

−1

)

∇2Φ(α) =1

σ2

[ZT (g(x)g(x)T + σ∇2f(x))Z + σ2A−2 −∇g(α)

−∇(α)T 1

]donde x = Zα.

Existe un criterio simple para analizar la optimalidad de un punto α∗ ∈ Λ para el problema

(1.3) una vez que es calculado el gradiente ∇f(α∗).

19

Page 20: Minimización de funciones convexas

2. Metodos de punto interior

Durante decadas el metodo simplex ha sido el metodo de solucion de los problemas

de programacion lineal. Sin embargo, desde el punto de vista teorico, el tiempo de calculo

requerido por este metodo crece exponencialmente con el tamano del problema.

Muchos investigadores han tratado de desarrollar algoritmos cuyos tiempos de calculo

tuviesen un crecimiento polinomial con el tamano del problema. En 1984, Karmarkar pro-

puso un algoritmo cuya complejidad computacional es polinomial y que resulto altamente

competitivo frente al metodo simplex para resolver problemas de programacion lineal de

gran tamano.

El algoritmo de Karmarkar origino multitud de trabajos alrededor de su idea, la cual ha

sido mejorada en muchos aspectos. Una de las mas fructıferas variantes es el algoritmo de

barrera logarıtmica Primal-Dual.

El metodo de Puntos Interiores Primal-Dual presenta la particularidad que siempre in-

tenta encontrar un punto factible del problema que se encuentra ubicado en el centro del

politope y desde allı realiza una busqueda del optimo actualizando las variables del problema.

Este comportamiento permite que sea posible desarrollar algoritmos que mejoren el proceso

de busqueda ya sea para volverlo mas eficiente o que tenga un objetivo adicional.

2.1. Idea basica del algoritmo del punto interior

Considerese el siguiente ejemplo (trivial):

max z = x1

sujeta a 0 ≤ x1 ≤ 2

Si se usa x2 como variable auxiliar, se puede reexpresar el problema como sigue:

max z = x1

x1 + x2 = 2

x1, x2 ≤ 0.

El espacio de soluciones se define por el segmento de recta AB. La direccion de aumento de

z es la direccion positiva de x1. Comencemos con cualquier punto interior (no extremo) C

en el espacio factible (lınea AB). El gradiente de la funcion objetivo (maximizar z = x1) en

C es la del aumento mas rapido de z. Si se ubica un punto arbitrario a lo largo del gradiente

y a continuacion se proyecta perpendicularmente sobre el espacio factible (lınea AB), se

obtiene el nuevo punto D, con mejor valor objetivo z. Esa mejora se obtiene moviendose en

la direccion del gradiente proyectado CD. Si se repite el procedimiento en D, se determinara

un nuevo punto E mas cercano al optimo. Se puede uno imaginar que si nos movemos (con

cuidado) en la direcci´on del gradiente proyectado, nos “tropezaremos” con el punto optimo

B. Si se esta minimizando a z (en lugar de maximizarla), el gradiente proyectado nos alejara

del punto B hacia el mınimo, en el punto A (x1 = 0).

20

Page 21: Minimización de funciones convexas

Los pasos que se dieron difıcilmente definen un algoritmo en el sentido normal, pero ¡la

idea es interesante! Se necesitan ciertas modificaciones que garanticen que 1) los pasos gene-

rados a lo largo del gradiente no “se pasen” del punto optimo en B, y 2) en el caso general

n dimensional, la direccion definida por el gradiente proyectado no cause un “empantana-

miento” del algoritmo en un punto no ´optimo. Esto es, basicamente, lo que se logra con el

algoritmo del punto interior de Karmarkar.

3. Algoritmo del punto interior

En los metodos de punto interior, el concepto de ruta central α(µ), µ > 0 es muy

importante. En el presente problema este concepto se define como:

α(µ) := argmin{ϕµ(α) : α ∈ S0}= argmin{ϕµ(α, ξ) : α > 0, ξ > f(α), eTα = 1}

es decir como la solucion α = ˆalpha(µ) y y = y(µ), del sistema no lineal:

∇ϕµ(α) + ey = 0 (3.1)

eT α = 1 (3.2)

La ruta central esta bien definida para µ > 0 y ademas converge a la solucion optima de

(1.3) cuando µ ↓ 0.

Para cada α0 ∈ S0 y µ0 > 0 se define tambien una ruta no-central α(µ), µ > 0 que pasa a

traves de α0 en µ0 y α(µ0) = α0 como:

α(µ) := argmin{ϕµ(α)−∇ϕµ0(α0)T α : α ∈ S)}

o equivalentemente, se puede definir como la solucion del sistema no lineal:

∇ϕµ(α)−∇ϕµ0(α0) + ey = 0 (3.3)

eT α = 1 (3.4)

Diferenciando respecto a µ se obtiene un sistema de ecuaciones lineales para α′ y y′:[∇2Φ(α) e

eT 0

](α′

y′

)=

(em+1/µ

2

0

)(3.5)

3.1. Algoritmo:

Inicio: α0 = (α0, ξ0) ∈ S0 arbitrarios, µ0 := ξ0− f(α0) > 0, estos generaran una sucesion

µk ↓ 0 y αk = (αk, ξk) ∈ S0, k = 0, 1, · · · ,.Iteracion basica:

(µ, α) := (µk, αk)→ (µ+, α

+) =: (µk+1, αk+1)

luego calcular un µ+ con 0 < µ+ < µ, α+ ∈ S0 que consiste en calcular un paso de correccion

y otro de prediccion. El paso de correccion mejora α, es decir se aproxima con buena exactitud

a la ruta central. El paso de prediccion, reduce µ a un adecuado µ+ y calcula un α+ ∈ S0.

21

Page 22: Minimización de funciones convexas

3.1.1. Paso de Correccion

Este paso consiste en una o mas iteraciones del metodo de Newton para resolver el sistema

(1.4) con µ = µ usando como valor inicial α. Por lo tanto la correccion de Newton δα se

obtiene de resolver el sistema:[∇2Φ(α) e

eT 0

](4αy

)= −

[∇ϕµ(α)

0

]Luego con λmin := argmin{ϕµ(α + λ4α) : λ > 0}, el punto α+ := α + λmin4α ∈ S0 sera

la mejor aproximacion a la ruta central. Los paso de Newton se repiten hasta que 4α sea

lo suficientemente pequeno. Un criterio de parada para las iteraciones de Newton es cuando

4αT∇2Φ(α)4α ≤ 1/4.

3.1.2. Paso de Prediccion

Sea α ∈ S0 el resultado del paso de prediccion. Entonces considerando la ruta no central

α(µ), 0 < µ < µ, a traves de α ,α(µ) = α y hallamos su derivada α′ en µ = µ resolviendo el

sistema: [∇2Φ(α) e

eT 0

](α′

y′

)=

[em+1/µ

2

0

]Para µ ≤ µ se considera la tangente:

α(µ) = α + (µ− µ)α′(µ)

Luego se encuentra µmin = min{µ > 0 : α(µ) ∈ S0} y sea

µ+ = γµmin + (1− γ)µ, α+ = α(µ+)

donde γ = 0,7.

3.1.3. Ejemplo

Sea el conjunto :

Z = {zi : zi = (ξi1, ξi2, · · · , ξin)T , i = 1, 2, · · · ,m}

de puntos donde ξij ∈ [0, 1] distribuidos aleatoreamente, sea la funcion cuadratica convexa

f(x) = (x−xc)T (x−xc) donde tambien xc ∈ [0, 1]n \ convZ. El criterio de parada usado fue:

µ ≤ 10−6. El punto inicial α0 = (1, 1, · · · , 1)T/m ∈ Rm . Se aplico el algoritmo para valores

grandes de n respecto a m. Los resultados se muestran en la siguiente tabla cuando n = 20

fijo y m se varia:

m Iter tiempo

1000 28 0.28

2000 36 0.78

3000 42 1.41

4000 45 2.16

5000 48 2.9

6000 51 3.70

22

Page 23: Minimización de funciones convexas

Cuando se fija m = 2000 y n va aumentando, los resultados son:

n iter tiempo

3 35 0.14

5 35 0.27

10 35 0.33

20 36 0.78

30 36 1.57

40 37 2.49

Lo que se puede observar es que en ambos casos el optimo se encuentra en un numero finito de

pasos sobre todo cuando se aplica este algoritmo para problemas cuadraticos estrictamente

convexos y genera una sucesion finita αk de soluciones factibles tales que f(αk+1) < f(αk)

23

Page 24: Minimización de funciones convexas

*Conclusiones En el presente trabajo sobre la minimizacion de funciones convexas sobre la

envolvente convexa de un conjunto finito de puntos usando un algoritmo de puntos interiores,

formulado matematicamente como el modelo (1.3) se obtienen las siguientes conclusiones:

1. El algoritmo presentado resulta conveniente para problemas de optimizacion convexos,

llegando a una buena aproximacion.

2. El algoritmo puede usarse tambien para hallar la proyeccion de un punto de Rn sobre

la envolvente convexa de un conjunto finito de puntos.

3. El metodo de puntos interiores se puede usar en un problema de optimizacion donde

la funcion objetivo no necesariamente es cuadratica pues se tiene bien definida la taza

de convergencia lineal aun para problemas no-cuadraticos convexos.

Recomendaciones

Debido al amplio campo de aplicacion que tiene el area de optimizacion sobre todo en

la toma de decisiones y los modelos, muchos de ellos, son de minimizacion de funciones

convexas, se recomienda seguir estudiando nuevas estrategias para obtener la solucion con

un tiempo y exactitud deseada.

Referencias

[1] Bertsekas, DP,Projected Newton methods for optimization problems with simple cons-

traints. 1982. Siam J. Control Optimo 20:221-246.

[2] Botkin,N. Stoer. J., Minimization of a convex function on the convex hull of a point

set, 2007. Mathematical Methods of Operations Research., 62. pp.167-185.

[3] Fiacco,A., McCormick,G.P., Nonlinear Programming: Sequential Unconstrained

Minimization Techniques, Wiley. New York, pp.273-281. 2008.

[4] Frisch, K.R., The Logarithmic Potential Method for Convex programming, Unpublis-

hed manuscript. Institute of Economics. University Oslo Norway, 1999.

[5] Karmarkar, A New polynomial-time algorithm for linear programming, Combinato-

rica. 4 pp373-395. 1999.

[6] Nestorov Yu, Nemirovsky, A., Interior Point Polynomial Methods in Convex pro-

gramming,. Siam. Philadelphia .2000.

[7] Wright, S.J.,Primal-Dual Interior Point Methods. Siam, philadelphia 1998.

24