Módulo 1: Análisis Matemático de la Optimización

110
1 Módulo 1 ANÁLISIS MATEMÁTICO DE LA OPTIMIZACIÓN Copyright ©2005 by South-Western, a division of Thomson Learning. All rights reserved.

Transcript of Módulo 1: Análisis Matemático de la Optimización

Page 1: Módulo 1: Análisis Matemático de la Optimización

1

Módulo 1

ANÁLISIS

MATEMÁTICO DE LA

OPTIMIZACIÓN

Copyright ©2005 by South-Western, a division of Thomson Learning. All rights reserved.

Page 2: Módulo 1: Análisis Matemático de la Optimización

2

Matemática de la Optimización

• Muchas teorías económicas empiezan con el

supuesto de que un agente económico quiere

encontrar el valor óptimo de alguna función

– consumidores buscan maximizar utilidad

– empresas buscan maximizar utilidad

• Este capítulo introduce a las matemáticas que

se emplean en estos problemas

Page 3: Módulo 1: Análisis Matemático de la Optimización

3

Maximización de una función de una

variable• Ejemplo: Administrador de una firma desea

maximizar beneficios

)(qf

= f(q)

Cantidad

*

q*

Utilidad máxima

* ocurre en q*

Page 4: Módulo 1: Análisis Matemático de la Optimización

4

Maximización de una función de una

variable• El admimistrador posiblemente intentará variar q para

ver dónde se obtienen los beneficios máximos

– un incremento de q1 a q2 produce un aumento en

= f(q)

Cantidad

*

q*

1

q1

2

q2

0q

Page 5: Módulo 1: Análisis Matemático de la Optimización

5

Maximización de una función de una

variable• Si el producto se incrementa más alla de q*, las

utilidades disminuirán

– un incremento de q* a q3 conduce a una caída en

= f(q)

Cantidad

*

q*

0q

3

q3

Page 6: Módulo 1: Análisis Matemático de la Optimización

6

Derivadas

• La derivada de = f(q) es el límite de / q para

cambios muy pequeños en q

h

qfhqf

dq

df

dq

d

h

)()(lim 11

0

• El valor de este ratio depende del valor de

q1

Page 7: Módulo 1: Análisis Matemático de la Optimización

7

Valor de una derivada en un punto

• La evaluación de la derivada en el punto q =

q1 puede ser denotado

1qqdq

d

• En nuestros ejemplos previos,

0

1qqdq

d0

3qqdq

d0

*qqdq

d

Page 8: Módulo 1: Análisis Matemático de la Optimización

8

Condición de primer orden para un máximo

• Para que una función de una variable to

alcance su valor máximo en algún punto, la

derivada en ese punto debe ser cero

0

*qqdq

df

Page 9: Módulo 1: Análisis Matemático de la Optimización

9

Condiciones de segundo orden

• La condición de primer orden (d /dq) es una

condición necesaria para un máximo, pero no es

una condición suficiente

Cantidad

*

q*

Si la función de utilidad tuviese forma de

u, con la condición de primer orden se

obtendría q* donde se minimizaría

Page 10: Módulo 1: Análisis Matemático de la Optimización

10

Condiciones de segundo orden

• Esto puede significar que para que q* sea

un óptimo,

* para 0 qqdq

dy * para 0 qq

dq

d

• Por lo tanto, en q*, d /dq debe ser

decreciente

Page 11: Módulo 1: Análisis Matemático de la Optimización

11

Segundas derivadas

• La derivada de una derivada se denomina

segunda derivada

• La segunda derivada puede denotarse por

)(" o o 2

2

2

2

qfdq

fd

dq

d

Page 12: Módulo 1: Análisis Matemático de la Optimización

12

Condiciones de segundo orden

• La condición de segundo orden para un

máximo (local) es

0)("*

*

2

2

qq

qq

qfdq

d

Page 13: Módulo 1: Análisis Matemático de la Optimización

13

Reglas para hallar derivadas

0 entonces constante, una es Si 1.dx

dbb

)(')]([

entonces constante, una es Si 2. xbfdx

xbfdb

1 entonces constante, es Si 3.

b

b

bxdx

dxb

xdx

xd 1ln 4.

Page 14: Módulo 1: Análisis Matemático de la Optimización

14

Reglas para hallar derivadas

aaadx

da x

x

constantecualquier para ln 5.

– un caso especial de esta regla es dex/dx = ex

Page 15: Módulo 1: Análisis Matemático de la Optimización

15

Reglas para hallar derivadas

)(')(')]()([

6. xgxfdx

xgxfd

)()(')(')()]()([

7. xgxfxgxfdx

xgxfd

• Supongamos que f(x) y g(x) son dos

funciones de x y f’(x) y g’(x) existe

• Entonces

Page 16: Módulo 1: Análisis Matemático de la Optimización

16

Reglas para hallar derivadas

0)( que dado

)]([

)(')()()(')(

)(

8.2

xg

xg

xgxfxgxf

dx

xg

xfd

Page 17: Módulo 1: Análisis Matemático de la Optimización

17

Reglas para hallar derivadas

dz

dg

dx

df

dz

dx

dx

dy

dz

dy 9.

• Si y = f(x) y x = g(z) y si existen f’(x) y

g’(x), entonces:

• Se denomina la regla de la cadena. La regla

de la cadena nos permite estudiar cómo una

variable (z) afecta otra variable (y) a través

de su influencia sobre alguna variable

intermedia (x)

Page 18: Módulo 1: Análisis Matemático de la Optimización

18

Reglas para hallar derivadas

axax

axax

aeaedx

axd

axd

de

dx

de )(

)( 10.

• Algunos ejemplos de la regla de la cadena

incluyen

)ln()ln()(

)(

)][ln()][ln( 11. axaaax

dx

axd

axd

axd

dx

axd

xx

xdx

xd

xd

xd

dx

xd 22

1)(

)(

)][ln()][ln( 12.

2

2

2

22

Page 19: Módulo 1: Análisis Matemático de la Optimización

19

Ejemplo de maximización de utilidad

• Suponga que la relación entre utilidad y producto es

= 1,000q - 5q2

• La condición de primer orden para un máximo es

d /dq = 1,000 - 10q = 0

q* = 100

• Dado que la segunda derivada es siempre -10, q =

100 es un máximo global

Page 20: Módulo 1: Análisis Matemático de la Optimización

20

Funciones de varias variables

• La mayoría de los objetivos de los agentes

económicos dependen de varias variables

– existen trade-offs (disyuntivas)

• La dependencia de una variable (y) sobre una serie

de otras variables (x1,x2,…,xn) se denota por

),...,,(n

xxxfy21

Page 21: Módulo 1: Análisis Matemático de la Optimización

21

• La derivada parcial de y con respecto a x1 se

denota por

Derivadas

1

11

o o o 1

ffx

f

x

yx

• Se entiende que al calcular una derivada

parcial, todas las demás x’s se mantienen

constantes

Page 22: Módulo 1: Análisis Matemático de la Optimización

22

• Una definición más formal de la derivada

parcial es

Derivadas parciales

h

xxxfxxhxf

x

f nn

h

xx n

),...,,(),...,,(lim

2121

0

,...,12

Page 23: Módulo 1: Análisis Matemático de la Optimización

23

Calculando derivadas parciales

212

2

211

1

2

221

2

121

2

y 2

entonces ,),( If 1.

cxbxfx

f

bxaxfx

f

cxxbxaxxxfy

2121

21

2

2

1

1

21

y

entonces ,),( Si 2.

bxaxbxax

bxax

befx

faef

x

f

exxfy

Page 24: Módulo 1: Análisis Matemático de la Optimización

24

Calculando derivadas parciales

2

2

21

1

1

2121

y

entonces ,lnln),( Si 3.

x

bf

x

f

x

af

x

f

xbxaxxfy

Page 25: Módulo 1: Análisis Matemático de la Optimización

25

Derivadas parciales

• Las derivadas parciales son la expresión

matemática del supuesto ceteris paribus

– muestra cómo los cambios en una variable

afectan algunos resultados cuando otras

influencias se mantienen constantes

Page 26: Módulo 1: Análisis Matemático de la Optimización

26

Derivadas parciales

• Debemos tener en cuenta cómo están

medidas las variables

– Si q representa la cantidad de gasolina

demandada (medida en billones de litros) y p

representa el precio en dólares por litro,

entonces q/ p medirá el cambio en la demanda

(en billones de litros por año) para un cambio

en el precio de un dólar por litro

Page 27: Módulo 1: Análisis Matemático de la Optimización

27

Elasticidad

• Las elasticidades miden el efecto

proporcional del cambio en una variable

sobre otra

• La elasticidad de y con respecto a x es

y

x

x

y

y

x

x

y

x

x

y

y

exy ,

Page 28: Módulo 1: Análisis Matemático de la Optimización

28

Elasticidad y forma funcional

• Suponga que

y = a + bx + otros términos

• En este caso,

bxa

xb

y

xb

y

x

x

ye

xy ,

• ey,x no es constante

– es importante notar el punto en el cual la

elasticidad va a ser computada

Page 29: Módulo 1: Análisis Matemático de la Optimización

29

Elasticidad forma funcional

• Supongamos que

y = axb

• En este caso,

bax

xabx

y

x

x

ye

b

b

xy

1

,

Page 30: Módulo 1: Análisis Matemático de la Optimización

30

Elasticidad y forma funcional

• Supongamos que

ln y = ln a + b ln x

• En este caso,

x

yb

y

x

x

ye

xyln

ln,

• Las elasticidades pueden calcularse a través

de la diferenciación logarítmica

Page 31: Módulo 1: Análisis Matemático de la Optimización

31

Derivada parcial de segundo-orden

• La derivada parcial de una derivada parcial

se denomina derivada parcial de segundo-

orden

ij

ijj

i fxx

f

x

xf2

)/(

Page 32: Módulo 1: Análisis Matemático de la Optimización

32

Teorema de Young

• Bajo condiciones generales, no importa el

orden en el cual se realiza la diferenciación

parcial para evaluar las derivadas parciales

de segundo orden

jiijff

Page 33: Módulo 1: Análisis Matemático de la Optimización

33

Uso de las parciales de

segundo-orden

• Las parciales de segundo-orden juegan un papel

importante en muchas teorías económicas

• Una de las más importantes es la parcial de

segundo orden de la misma variable, fii

– muestra cómo la influencia marginal de xi sobre y

( y/ xi) cambia a medida que se incrementa xi

– un valor de fii < 0 indica rendimiento maginal

decreciente

Page 34: Módulo 1: Análisis Matemático de la Optimización

34

Diferencial total

• Supongamos que y = f(x1,x2,…,xn)

• Si todas las x’s varían en una pequeña

cantidad, el efecto total sobre y será

n

n

dxx

fdx

x

fdx

x

fdy ...

2

2

1

1

nndxfdxfdxfdy ...

2211

Page 35: Módulo 1: Análisis Matemático de la Optimización

35

Condición de primer orden para un máximo (o mínimo)

• Una condición necesaria para un máximo (o mínimo)

de la función f(x1,x2,…,xn) es que dy = 0 para

cualquier combinación de cambios pequeños en las x’s

• La única forma de que esto sea cierto es si

0...21 n

fff

• Un punto en el que esta condición se verifica se

denomina punto crítico

Page 36: Módulo 1: Análisis Matemático de la Optimización

36

Encontrar un máximo

• Supongamos que y es una función de x1 y x2

y = - (x1 - 1)2 - (x2 - 2)2 + 10

y = - x12 + 2x1 - x2

2 + 4x2 + 5

• Condiciones de primer orden implican que

042

022

2

2

1

1

xx

y

xx

y

O2

1

2

1

*

*

x

x

Page 37: Módulo 1: Análisis Matemático de la Optimización

37

Frontera de posibilidades de producción

• Ejemplo anterior: 2x2 + y2 = 225

• Puede re-escribirse: f(x,y) = 2x2 + y2 - 225 = 0

• Dado que fx = 4x y fy = 2y, la disyuntiva de coste

de oportunidad entre x e y es

y

x

y

x

f

f

dx

dy

y

x2

2

4

Page 38: Módulo 1: Análisis Matemático de la Optimización

38

Teorema de la función implícita

• No siempre será posible resulver funciones

implícitas de la forma g(x,y)=0 para funciones

explícitas de la forma y = f(x)

– los matemáticos han derivado las condiciones

necesarias

– en muchas aplicaciones económicas, estas

condiciones son las mismas que las condiciones de

segundo orden para un máximo (o mínimo)

Page 39: Módulo 1: Análisis Matemático de la Optimización

39

El teorema de la envolvente

• El teorema de la envolvente considera cómo el

valor óptimo de una función en particular

cambia cuando un parámetro de esa función

cambia

• La forma más simple de verlo es mediante un

ejemplo

Page 40: Módulo 1: Análisis Matemático de la Optimización

40

El teorema de la envolvente

• Supongamos que y es una función de x

y = -x2 + ax

• Para valores diferentes de a, esta función

representa una familia de parábolas invertidas

• Si a a asignamos un valor específico, entonces

y es una función de x solamente y el valor de x

que maximiza y puede calcularse

Page 41: Módulo 1: Análisis Matemático de la Optimización

41

El teorema de la envolvente

Valor de a Valor de x* Valor de y*

0 0 0

1 1/2 1/4

2 1 1

3 3/2 9/4

4 2 4

5 5/2 25/4

6 3 9

Valores óptimos de x e y para valores alternativos de a

Page 42: Módulo 1: Análisis Matemático de la Optimización

42

El teorema de la envolvente

0

1

2

3

4

5

6

7

8

9

10

0 1 2 3 4 5 6 7

a

y*

A medida que a aumenta,

el valor máximo de

for y (y*) se incrementa

La relación entre a

e y

es cuadrática

Page 43: Módulo 1: Análisis Matemático de la Optimización

43

El teorema de la envolvente

• Supongamos que estamos interesados en

cómo y* cambia a medida que a cambia

• Hay dos formas de hacer esto

– calculamos la pendiente de y directamente

– mantenemos x constante en su valor óptimo y

calculamos y/ a directamente

Page 44: Módulo 1: Análisis Matemático de la Optimización

44

El teorema de la envolvente

• Para calcular la pendiente de la función,

debemos resolver para el valor óptimo de x

para cualquier valor de a

dy/dx = -2x + a = 0

x* = a/2

• Sustituyendo, obtenemos

y* = -(x*)2 + a(x*) = -(a/2)2 + a(a/2)

y* = -a2/4 + a2/2 = a2/4

Page 45: Módulo 1: Análisis Matemático de la Optimización

45

El teorema de la envolvente

• Por lo tanto,

dy*/da = 2a/4 = a/2 = x*

• Pero, podemos ahorrar tiempo utilizando el

teorema de la envolvente

– Para cambios pequeños en a, dy*/da puede ser

computado manteniendo x en x* y calculando y/

a directamente de y

Page 46: Módulo 1: Análisis Matemático de la Optimización

46

El teorema de la envolvente

y/ a = x

• Manteniendo x = x*

y/ a = x* = a/2

• Es el mismo resultado obtenido anteriormente

Page 47: Módulo 1: Análisis Matemático de la Optimización

47

El teorema de la envolvente

• El teorema de la envolvente afirma que el cambio

en el valor óptimo de una función con respecto a un

parámetro de la función puede ser encontrado

diferenciando parcialmente la función objectivo

mientras se mantiene constante x (o varias x’s) en

este valor óptimo

)}(*{*

axxa

y

da

dy

Page 48: Módulo 1: Análisis Matemático de la Optimización

48

El teorema de la envolvente• El teorema de la envolvente puede extenderse al

caso donde y es una función de varias variables

y = f(x1,…xn,a)

• Encontrar un valor óptimo para y consistiría en

resolver n ecuaciones de primer orden

y/ xi = 0 (i = 1,…,n)

Page 49: Módulo 1: Análisis Matemático de la Optimización

49

El teorema de la envolvente

• Valores óptimos para estas x’s se determinarían

como una función de a

x1* = x1*(a)

x2* = x2*(a)

xn*= xn*(a)

.

.

.

Page 50: Módulo 1: Análisis Matemático de la Optimización

50

El teorema de la envolvente

• Sustituyendo en la función objectivo original

resulta en una expresión para el valor óptimo de

y (y*)

y* = f [x1*(a), x2*(a),…,xn*(a),a]

• Diferenciando resulta

a

f

da

dx

x

f

da

dx

x

f

da

dx

x

f

da

dyn

n

...*

2

2

1

1

Page 51: Módulo 1: Análisis Matemático de la Optimización

51

El teorema de la envolvente

• Debido a las condiciones de primer orden, todos

los términos excepto f/ a son iguales a cero si

las x’s están en sus valores óptimos

• Por lo tanto,

)}(*{*

axxa

f

da

dy

Page 52: Módulo 1: Análisis Matemático de la Optimización

52

Maximización restringida

• ¿Qué ocurre si no son posibles todos los valores de

las x’s?

– puede ser que todos los valores de x tengan que ser

positivos

– las elecciones de los consumidores están limitadas por la

cantidad de poder adquisitivo disponible

• Un método para resolver problemas de

maximización restringidas es el método del

multiplicador Lagrangiano

Page 53: Módulo 1: Análisis Matemático de la Optimización

53

Método del multiplicador

Lagrangiano• Supongamos que queremos encontrar los

valores de x1, x2,…, xn que maximizan

y = f(x1, x2,…, xn)

sujeta a una restricción que permite utilizar

sólo ciertos valores de las x’s

g(x1, x2,…, xn) = 0

Page 54: Módulo 1: Análisis Matemático de la Optimización

54

Método del multiplicador

Lagrangiano• El método del multiplicador Lagrangiano

comienza con la siguiente expresión

L = f(x1, x2,…, xn ) + g(x1, x2,…, xn)

donde es una variable adicional

denominada multiplicador de Lagrange

• Cuando la restricción se mantiene, L = f

porque g(x1, x2,…, xn) = 0

Page 55: Módulo 1: Análisis Matemático de la Optimización

55

Método del multiplicador

Lagrangiano• Condiciones de primer orden

L/ x1 = f1 + g1 = 0

L/ x2 = f2 + g2 = 0

.

L/ xn = fn + gn = 0

.

.

L/ = g(x1, x2,…, xn) = 0

Page 56: Módulo 1: Análisis Matemático de la Optimización

56

Método del multiplicador

Lagrangiano• Generalmente las condiciones de primer

orden pueden resolverse para x1, x2,…, xn y

• La solución tendrá dos propiedades:

– las x’s cumplirán con la restricción

– estas x’s harán del valor de L (y por lo tanto de

f) tan grande como sea posible

Page 57: Módulo 1: Análisis Matemático de la Optimización

57

Método del multiplicador

Lagrangiano• El multiplicador Lagrangiano ( ) tiene una

importante interpretación económica

• Las condiciones de primer orden implican que

f1/-g1 = f2/-g2 =…= fn/-gn =

– los numeradores miden el beneficio marginal que una

unidad más de xi tendrán para la función f

– los denominadores reflejan la carga agregada sobre la

restricción de utilizar más xi

Page 58: Módulo 1: Análisis Matemático de la Optimización

58

Método del multiplicador

Lagrangiano• En las elecciones óptimas para las x’s, el ratio del

beneficio marginal de incrementar xi y el coste

marginal de incrementar xi sería el mismo para cada

x

• es el ratio común de coste-beneficio para todas

las x’s

i

i

x

x

de marginal coste

de marginal beneficio

Page 59: Módulo 1: Análisis Matemático de la Optimización

59

Método del multiplicador

Lagrangiano

• Si se relajase la restricción en una pequeña

cantidad, no importaría que x está cambiando

• El multiplicador Lagrangiano provee una

medida de cómo la relajación dela restricción

afectaría el valor de y

• provee un “precio sombra” para la

restricción

Page 60: Módulo 1: Análisis Matemático de la Optimización

60

Método del multiplicador

Lagrangiano• Un valor alto de indica que y puede

incrementarse sustancialmente relajando la

restricción

– cada x tiene un alto ratio coste-benecio

• Un valor bajo de indica que no hay mucho

que ganar al relajar la restricción

• =0 implica que la restricción no es

vinculante (cambiando la restricción no

cambia la solución óptima)

Page 61: Módulo 1: Análisis Matemático de la Optimización

61

Dualidad

• Cualquier problema de maximización

restringida está vinculado con un problema

dual de minimización restringida que enfoca

la atención sobre las restricciones del

problema original

Page 62: Módulo 1: Análisis Matemático de la Optimización

62

Dualidad• Individuos que maximizan su utilidad sujeta a una

restricción presupuestaria

– problema dual: los individuos minimizan el gasto

necesario para lograr un nivel dado de utilidad

• Las firmas minimizan el coste de los insunmos para

producir un nivel dado de producto

– problema dual: las firmas maximizan el producto para

costes de insumos adquiridos

Page 63: Módulo 1: Análisis Matemático de la Optimización

63

Maximización restringida• Supongamos que un agricultor tiene cierta

extensión de valla (P) y desea encerrar la forma

rectangular más grande posible

• Denotemos x como la extensión de un lado

• Denotemos y como la extensión del otro lado

• Problema: escoger x e y tal que se maximiza el

área (A = x·y) sujeta a la restricción de que el

perímetro es fijo en P = 2x + 2y

Page 64: Módulo 1: Análisis Matemático de la Optimización

64

Maximización restringida

• Configurando el multiplicador Lagrangiano

L = x·y + (P - 2x - 2y)

• Las condiciones de primer orden para un

máximo son

L/ x = y - 2 = 0

L/ y = x - 2 = 0

L/ = P - 2x - 2y = 0

Page 65: Módulo 1: Análisis Matemático de la Optimización

65

Maximización restringida• Dado que y/2 = x/2 = , x debe ser igual a y

– el campo sería cuadrado

– x e y serían escogidos tal que el ratio de beneficios

marginales y costes marginales serían iguales

• Dado que x = y e y = 2 , podemos utilizar la

restricción para mostrar que

x = y = P/4

= P/8

Page 66: Módulo 1: Análisis Matemático de la Optimización

66

Maximización restringida• Interpretación del multiplicador de Lagrange

– si el agricultor estuviese interesado en conocer qué

campo adicional puede tener valla agregando un

metro adicional de valla, sugiere que puede

saberlo dividiendo el perímetro presente (P) por 8

– por lo tanto, el multiplicador Lagrangiano provee

información acerca del valor implícito de la

restricción

Page 67: Módulo 1: Análisis Matemático de la Optimización

67

Maximización restringida

• Problema dual: escoger x e y para minimizar la

cantidad de valla requirida para rodear el

campo

minimizar P = 2x + 2y sujeta a A = x·y

• Configurando el Lagrangiano:

LD = 2x + 2y + D(A - x y)

Page 68: Módulo 1: Análisis Matemático de la Optimización

68

Maximización restringida

• Conditiones de primer orden:

LD/ x = 2 - D·y = 0

LD/ y = 2 - D·x = 0

LD/ D = A - x·y = 0

• Resolviendo, tenemos

x = y = A1/2

• El multiplicador Lagrangiano ( D) = 2A-1/2

Page 69: Módulo 1: Análisis Matemático de la Optimización

69

Teorema de la envolvente &

maximización restringida• Supongamos que queremos maximizar

y = f(x1,…,xn;a)

sujeta a la restricción

g(x1,…,xn;a) = 0

• Una forma de resolver sería fijando la

expresión para el Lagrangiano y resolver las

condiciones de primer orden

Page 70: Módulo 1: Análisis Matemático de la Optimización

70

Teorema de la envolvente &

Maximización restringida

• Alternativamente, puede demostrarse que

dy*/da = L/ a(x1*,…,xn*;a)

• El cambio en el valor máximo de y que resulta

cuando a cambia puede encontrarse

diferenciando parcialmente L y evaluando la

derivada parcial en el punto óptimo

Page 71: Módulo 1: Análisis Matemático de la Optimización

71

Restricciones con desigualdad

• En algunos problemas económicos no necesitamos

que las restricciones se cumplan exactamente

• Por ejemplo, supongamos que buscamos

maximizar y = f(x1,x2) sujeta a

g(x1,x2) 0,

x1 0, and

x2 0

Page 72: Módulo 1: Análisis Matemático de la Optimización

72

Restricciones con desigualdad

• Una forma de resolver este problema es

introduciendo tres nuevas variables (a, b, y

c) que convierte las desigualdades en

igualdades

• Para asegurar que se cumplen las

desigualdades, elevamos al cuadrado estas

nuevas variables para asegurar que sus

valores son positivos

Page 73: Módulo 1: Análisis Matemático de la Optimización

73

Restricciones con desigualdad

g(x1,x2) - a2 = 0;

x1 - b2 = 0; and

x2 - c2 = 0

• Cualquier solución que obedece estas tres

restricciones de igualdad también cumplirán

con las restricciones de desigualdad

Page 74: Módulo 1: Análisis Matemático de la Optimización

74

Restricciones de desigualdad

• Podemos establecer el siguente Lagrangiano

L = f(x1,x2) + 1[g(x1,x2) - a2] + 2[x1 - b2] + 3[x2 -

c2]

• Con lo cual obtendremos ocho condiciones

de primer orden

Page 75: Módulo 1: Análisis Matemático de la Optimización

75

Restricciones de desigualdad

L/ x1 = f1 + 1g1 + 2 = 0

L/ x2 = f1 + 1g2 + 3 = 0

L/ a = -2a 1 = 0

L/ b = -2b 2 = 0

L/ c = -2c 3 = 0

L/ 1 = g(x1,x2) - a2 = 0

L/ 2 = x1 - b2 = 0

L/ 3 = x2 - c2 = 0

Page 76: Módulo 1: Análisis Matemático de la Optimización

76

Restricciones de desigualdad

• De acuerdo con la tercera condición, ya sea a o 1

= 0

– si a = 0, la restricción g(x1,x2) se cumple exactamente

– si 1 = 0, la disponibilidad de alguna holgura de la

restricción implica que su valor para la función objetivo

es 0

• Similares relaciones de complementariedad de

holguras (formadas por el conjunto de las

restricciones de menor o igual multiplicadas por

su correspondiente ) también se cumplen para x1

y x2

Page 77: Módulo 1: Análisis Matemático de la Optimización

77

Restricciones de desigualdad

• A estos resultados se los conoce como las

condiciones de Kuhn-Tucker– muestran que las soluciones para problemas de

optimización que involucran a restricciones con

desigualdades diferirán de problemas similares que

involucran restricciones con igualdades

– no podemos equivocarnos trabajando principalmente

con restricciones con igualdades, hay que considerar las

desigualdades

Page 78: Módulo 1: Análisis Matemático de la Optimización

78

Condiciones de segundo orden –funciones de una variable

• Denotemos y = f(x)

• Una condición necesaria para un máximo es

que

dy/dx = f ’(x) = 0

• Para asegurar que el punto es un máximo, y

debe ser decreciente para los movimientos

fuera de él

Page 79: Módulo 1: Análisis Matemático de la Optimización

79

Condiciones de segundo orden-funciones de una variable

• La diferencial total mide el cambio en y

dy = f ’(x) dx

• Para estar en un máximo, dy debe ser

decreciente para incrementos pequeños en x

• Para ver los cambios en dy, debemos utilizar la

segunda derivada de y

Page 80: Módulo 1: Análisis Matemático de la Optimización

80

Condiciones de segundo orden –funciones de una variable

• Notemos que d 2y < 0 implica que f ’’(x)dx2 <

0

• Dado que dx2 debe ser positivo, f ’’(x) < 0

• Esto significa que la función f debe tener una

forma cócava en el punto crítico

22)(")("

])('[dxxfdxdxxfdx

dx

dxxfdyd

Page 81: Módulo 1: Análisis Matemático de la Optimización

81

Condiciones de segundo orden –funciones de dos variables

• Supongamos que y = f(x1, x2)

• Las condiciones de primer orden para un máximo

son

y/ x1 = f1 = 0

y/ x2 = f2 = 0

• Para asegurar que el punto es un máximo, y debe

disminuir para movimientos en cualquier

dirección fuera del punto crítico

Page 82: Módulo 1: Análisis Matemático de la Optimización

82

Condiciones de segundo orden –funciones de dos variables

• La pendiente en la dirección x1 (f1) debe ser

decreciente en el punto crítico

• La pendiente en la dirección x2 (f2) debe ser

decreciente en el punto crítico

• Pero, se deben establecer condiciones sobre las

derivadas parciales cruzadas (f12 = f21) para

asegurar que dy es decreciente para todos los

movimientos a través del punto crítico

Page 83: Módulo 1: Análisis Matemático de la Optimización

83

Condiciones de segundo orden –funciones de dos variables

• La diferencial total de y está dado por

dy = f1 dx1 + f2 dx2

• La diferencial de esta función es

d 2y = (f11dx1 + f12dx2)dx1 + (f21dx1 + f22dx2)dx2

d 2y = f11dx12 + f12dx2dx1 + f21dx1 dx2 + f22dx2

2

• Por el teorema de Young, f12 = f21 y

d 2y = f11dx12 + 2f12dx1dx2 + f22dx2

2

Page 84: Módulo 1: Análisis Matemático de la Optimización

84

Condiciones de segundo orden-funciones de dos variables

d 2y = f11dx12 + 2f12dx1dx2 + f22dx2

2

• Para que esta ecuación sea indefectiblemente negativa

para cualquier cambio en las x’s, f11 y f22 deben ser

negativas

• Si dx2 = 0, entonces d 2y = f11 dx12

– para d 2y < 0, f11 < 0

• Si dx1 = 0, entonces d 2y = f22 dx22

– para d 2y < 0, f22 < 0

Page 85: Módulo 1: Análisis Matemático de la Optimización

85

Condiciones de segundo orden –funciones de dos variables

d 2y = f11dx12 + 2f12dx1dx2 + f22dx2

2

• Si ni dx1 o dx2 son cero, entonces d 2y será sin

ambigüedad negativo sólo si

f11 f22 - f122 > 0

– las derivadas parciales de segundo orden (f11 y f22)

deben ser suficientemente negativas tal que compensan

cualquier tipo de efectos contratio de las derivadas

parciales cruzadas (f12 = f21)

Page 86: Módulo 1: Análisis Matemático de la Optimización

86

Maximización restringida

• Supongamos que queremos escoger x1 y x2

para maximizar

y = f(x1, x2)

• Sujeta a la restricción linear

c - b1x1 - b2x2 = 0

• Podemos establecer el Lagrangiano

L = f(x1, x2) + (c - b1x1 - b2x2)

Page 87: Módulo 1: Análisis Matemático de la Optimización

87

Maximización restringida

• Las condiciones de primer orden son

f1 - b1 = 0

f2 - b2 = 0

c - b1x1 - b2x2 = 0

• Para asegurar que tenemos un máximo,

debemos usar la diferencial total de “segundo”

orden

d 2y = f11dx12 + 2f12dx1dx2 + f22dx2

2

Page 88: Módulo 1: Análisis Matemático de la Optimización

88

Maximización restringida• Sólo los valores de x1 y x2 que satisfacen la

restricción pueden ser consideradas como

alternativas válidas para el punto crítico

• Por ello, debemos calcular la diferencial total de la

restricción

-b1 dx1 - b2 dx2 = 0

dx2 = -(b1/b2)dx1

• Estos son los cambios relativos permitidos en x1 y x2

Page 89: Módulo 1: Análisis Matemático de la Optimización

89

Maximización restringida

• Debido a las condiciones de primer orden que

implican que f1/f2 = b1/b2, podemos sustituir y

obtener

dx2 = -(f1/f2) dx1

• Dado

d 2y = f11dx12 + 2f12dx1dx2 + f22dx2

2

podemos sustituir dx2 y tenemos

d 2y = f11dx12 - 2f12(f1/f2)dx1

2 + f22(f12/f2

2)dx12

Page 90: Módulo 1: Análisis Matemático de la Optimización

90

Maximización restringida• Combinando términos y reordenando

d 2y = f11 f22 - 2f12f1f2 + f22f1

2 [dx12/ f2

2]

• Por lo tanto, para d 2y < 0, debe ser cierto que

f11 f22 - 2f12f1f2 + f22f1

2 < 0

• Esta ecuación caracteriza un conjunto de funciones

denominadas funciones cuasi-cóncavas

– cualquier par de puntos dentro del conjunto puede formar

una línea introducida completamente en el conjunto

Page 91: Módulo 1: Análisis Matemático de la Optimización

91

Funciones cóncavas y cuasi-cóncavas

• Las diferencias entre las funciones cóncavas

y cuasi-cóncavas pueden ilustrarse con la

función

y = f(x1,x2) = (x1 x2)k

donde las x’s pueden tomar solamente

valores positivos y k puede tomar una

variedad de valores positivos

Page 92: Módulo 1: Análisis Matemático de la Optimización

92

Funciones cóncavas y cuasi-cóncavas

• No importa que valores toma k, esta función

es cuasi-cóncava

• Si la función es cóncava o no depende del

valor de k

– si k < 0.5, la función es cóncava

– si k > 0.5, la función es convexa

Page 93: Módulo 1: Análisis Matemático de la Optimización

93

Funciones homogéneas

• Una función f(x1,x2,…xn) es homogénea de

grado k si

f(tx1,tx2,…txn) = tk f(x1,x2,…xn)

– cuando una función es homogénea de grado uno,

duplicando todos los argumentos duplica el valor

de la función

– cuando una función es homogéna de grado cero,

duplicando todos los argumentos deja la función

sin cambios

Page 94: Módulo 1: Análisis Matemático de la Optimización

94

Funciones homogéneas

• Si una función es homogénea de grado k, las

derivadas parciales de la función será

homogénea de grado k-1

Page 95: Módulo 1: Análisis Matemático de la Optimización

95

Teorema de Euler

• Si diferenciamos la definición de

homogeneidad con respecto a la

proporcionalidad del factor t, obtenemos

ktk-1f(x1,…,xn) x1f1(tx1,…,txn) + … + xnfn(x1,…,xn)

• Esta relación se denomina teorema de Euler

Page 96: Módulo 1: Análisis Matemático de la Optimización

96

Teorema de Euler

• El teorema de Euler muestra que, para

funciones homogéneas, hay una relación

definida entre los valores de la función y

los valores de sus derivadas parciales

Page 97: Módulo 1: Análisis Matemático de la Optimización

97

Funciones homotéticas

• Una función homotética es una que se

forma tomando una transformación

monotónica de una función homogénea

– no tienen las propiedades de homogeneidad de

sus funciones subyacentes

Page 98: Módulo 1: Análisis Matemático de la Optimización

98

Funciones homotéticas

• Tanto para funciones homogéneas como

para las homotéticas, las disyuntivas

implícitas entre las variables en la función

dependen solamente de los ratios de

aquellas variables, no de sus valores

absolutos

Page 99: Módulo 1: Análisis Matemático de la Optimización

99

Funciones homotéticas

• Supongamos que examinamos la función implícita

de dos variables f(x,y) = 0

• La disyuntiva implícita entre x e y para una

función de dos variables

dy/dx = -fx/fy

• Si asumimos que f es homogénea de grado k, sus

derivadas parciales serán homogéneas de grado k-

1

Page 100: Módulo 1: Análisis Matemático de la Optimización

100

Funciones homotéticas

• La disyuntiva implícita entre x e y es

),(

),(

),(

),(1

1

tytxf

tytxf

tytxft

tytxft

dx

dy

y

x

y

k

x

k

• Si t = 1/y,

1,

1,

1,'

1,'

y

xf

y

xf

y

xfF

y

xfF

dx

dy

y

x

y

x

Page 101: Módulo 1: Análisis Matemático de la Optimización

101

Funciones homotéticas

• La disyuntiva no está afectada por la

transformación monotónica y permanece

una función solamente del ratio x e y

Page 102: Módulo 1: Análisis Matemático de la Optimización

102

Puntos importantes a

considerar:• Utilizando matemáticas tenemos una

forma conveniente para que los

economistas desarrollen sus modelos

– las implicaciones de varios supuestos

económicos pueden estudiarse a través de

herramientas matemáticas

Page 103: Módulo 1: Análisis Matemático de la Optimización

103

Puntos importantes a

considerar:• Las derivadas se usan a menudo en

economía porque los economistas están

interesados en cómo los cambios marginales

en una variable afectan a otras

– las derivadas parciales incorporan el supuesto

ceteris paribus utilizando en muchos modelos

económicos

Page 104: Módulo 1: Análisis Matemático de la Optimización

104

Puntos importantes a

considerar:• Las matemáticas para optimización es

una herramienta importante para el

desarrollo de modelos que asumen que

los agentes económicos racionalmente

persiguen algunas metas

– las condiciones de primer orden requieren

todas las derivadas parciales sean cero

Page 105: Módulo 1: Análisis Matemático de la Optimización

105

Puntos importantes a

considerar:• La mayoría de los problemas de

optimización económica involucran

restricciones en las elecciones que los

agentes pueden realizar

– las condiciones de primer orden para un

máximo sugieren que cada actividad puede

operar a un nivel en el cual el beneficio

marginal de la actividad es igual a su coste

marginal

Page 106: Módulo 1: Análisis Matemático de la Optimización

106

Puntos importantes a

considerar:

• El multiplicador Lagrangiano se emplea

para ayudar a resolver problemas de

maximization

– el multiplicador Lagrangiano puede ser

interpretado como el valor implícito (precio

sombra) de la restricción

Page 107: Módulo 1: Análisis Matemático de la Optimización

107

Puntos importantes a

considerar:

• El teorema de la función implícita ilustra

la dependencia de las elecciones que

resultan de un problema de optimización

sobre los parámetros del problema

Page 108: Módulo 1: Análisis Matemático de la Optimización

108

Puntos importantes a

considerar:

• El teorema de la envolvente examina

cómo las elecciones óptimas cambiarán

a medida que cambia el parámetro del

problema

• Algunos problemas de optimización

pueden involucrar restricciones que son

desigualdades antes que igualdades

Page 109: Módulo 1: Análisis Matemático de la Optimización

109

Puntos importantes a

considerar:

• Condiciones de primer orden son

necesarias pero no suficientes para

asegurar un máximo o un mínimo

– las condiciones de segundo orden que

describen la curvatura de una función deben

revisarse

Page 110: Módulo 1: Análisis Matemático de la Optimización

110

Puntos importantes a

considerar:• Ciertos tipos de funciones ocurren en muchos

problemas económicos

– funciones cuasi-cóncavas obedecen las condiciones

de segundo orden de problemas de máximo o

mínimo restringido donde las restricciones son

lineales

– las funciones homotéticas tienen la propiedad de

que las disyuntivas implícitas entre las variables

dependen solamente de los ratios de estas variables