Sesion 1 Intro Metodos Numericos m

84
métodos numéricos Clase 1: Introducción Marco Ortiz Marzo-Abril 2015 PUCP

description

Introducción a los Métodos Numéricos

Transcript of Sesion 1 Intro Metodos Numericos m

  • mtodos numricosClase 1: Introduccin

    Marco OrtizMarzo-Abril 2015

    PUCP

  • motivacion

  • motivacin

    Muchos modelos econmicos no pueden ser resueltos contcnicas matemticas estndar.

    Estos modelos son normalmente ms complejos, impulsadospor el afn de capturar de forma ms precisa la realidad.

    Esto ha empujado a los economistas (y otros cientcos) autilizar mtodos computacionales para resolver estos modelos.

    Enfrentamos un primer trade-off: la belleza de la solucinanlitica versus la relevancia de los supuestos para llegar a lamisma.

    2

  • motivacin

    Mentalidad de obrero vs. mentalidad de artista...

    Figure: Arte clsica vs. modernista

    3

  • mtodos numricos vs. matemtica pura

    Lo puro y abstracto versus la impura realidad.

    4

  • mtodos numricos vs. matemtica pura (2)

    La velocidad es una restriccin crtica en el clculo.

    Nuestras restricciones de tiempo (y espacio) hacen a los objetosmatemticos puros inalcanzables. Esto nos fuerza a aceptar lasaproximaciones impuras y sujetas a error del anlisis numrico.

    5

  • mtodos numricos vs. matemtica pura (2)

    La velocidad es una restriccin crtica en el clculo.

    Nuestras restricciones de tiempo (y espacio) hacen a los objetosmatemticos puros inalcanzables. Esto nos fuerza a aceptar lasaproximaciones impuras y sujetas a error del anlisis numrico.

    5

  • un adelanto...

    Las herramientas numricas pueden parecer tediosas, pero elpago es alto...

    Forma tradicional de solucin: Log-linearizacin alrededor del estado estacionario.

    Qu preguntas no puede responder? Riesgo: Las aproximaciones de primer orden no consideran elriesgo - no hay primas por riesgo, no hay portafolio.

    Tamao de choques: La aproximacin alrededor del estadoestacionario asume que los choques son pequeos.

    Kinks: Las soluciones pueden cambiar dependiendo del puntoen estado-espacio! restricciones de endeudamientoocasionalmente efectivas, zero lower bound, ahorro precautivo,restricciones de no negatividad de la inversin.

    Aproximacin de densidades: Agentes heterogneos, informacinheterognea, aprendizaje no-lineal.

    6

  • un adelanto...

    Las herramientas numricas pueden parecer tediosas, pero elpago es alto...

    Forma tradicional de solucin: Log-linearizacin alrededor del estado estacionario.

    Qu preguntas no puede responder? Riesgo: Las aproximaciones de primer orden no consideran elriesgo - no hay primas por riesgo, no hay portafolio.

    Tamao de choques: La aproximacin alrededor del estadoestacionario asume que los choques son pequeos.

    Kinks: Las soluciones pueden cambiar dependiendo del puntoen estado-espacio! restricciones de endeudamientoocasionalmente efectivas, zero lower bound, ahorro precautivo,restricciones de no negatividad de la inversin.

    Aproximacin de densidades: Agentes heterogneos, informacinheterognea, aprendizaje no-lineal.

    6

  • conceptos elementales en computacin

  • aritmtica computacional

    Machine epsilon: Es la cantidad relativa ms representable porla mquina. Es el " ms pequeo tal que la mquina reconoceque 1+ " > 1 ".

    Machine innity: el nmero ms largo tal que ese valor y sunegativo son representables.

    Overow: ocurre cuando la mquina intenta representar unnmero mayor al machine innity.

    Machine zero: valor equivalente a cero para la computadora. Underow: ocurre cuando la mquina intenta representar unnmero que no es cero pero es menor al machine zero.

    8

  • procesamiento computacional y algoritmos

    Procesamiento serial: La forma tradicional de procesar. Elprocesador realiza una operacin a la vez, ejecutando laoperacin luego de que la previa ha nalizado.

    Procesamiento vectorial: Diferentes unidades que procesanelementos simultneamente.

    Procesamiento paralelo: Ms de un CPU es utilizadosimultneamente! puedes pedirle CPUs prestados a tusamigos durante sus vacaciones!

    9

  • economa de la computacin

    Discutir mtodos computacionales ecientes es natural para loseconomistas.

    No slo hay que resolver los problemas, hay que hacerloeconomizando recursos.

    Debemos considerar varios trade-offs: tiempo del programador tiempo de procesamiento del cdigo precisin

    Al nal debemos sopesar los recursos y objetivos.

    10

  • un ejemplo: el mtodo de horner

    Consideremos evaluar el siguiente polinomio:nX

    k=0akxk (1)

    Tenemos varias alternativas:1. Evaluar todos los valores de xk y multiplicarlos por los coecientes

    y nalmente sumar.2. Usar multiplicaciones: calcular x, luego x2 = xx, luego x3 = (x2)x y

    reemplazar tomar exponenciales por productos.3. Mtodo de Horner: Para un polinomio genrico de tercer orden...

    a0 + a1x+ a2x2 + a3x3 = a0 + x(a1 + x(a2 + x a3)): (2)

    esta factorizacin hace el uso ms eciente de lasmultiplicaciones: tres sumas, tres multiplicaciones.

    11

  • mtodos numricos vs. mtodos iterativos

    Mtodos directos:

    algoritmos que no presentan errores de redondeo. Por ejemplo,la solucin a ax = b es x = a=b. La solucin presenta una altaprecisin (la de la maquina.)

    Mtodos iterativos:

    Pocos problemas tienen mtodos directos de solucin y asexistan, requieren con frecuencia de demasiado tiempo yespacio para ser prcticos. En este caso recurrimos a mtodositerativos:

    xk+1 = gk+1(xk; xk1; :::) 2 Rn: (3) donde x es la solucin deseada. Buscamos que la secuencia dexk converja a x.

    Podemos controlar la calidad del resultado (criterio deconvergencia).

    12

  • el error: el problema central de la matemtica numrica

    Fuentes de error: Redondeo: la precisin de la maquina es limitada. Truncamiento matemtico: Aproximacin de series innitas porseries nitas (expansin de Taylor).

    Propagacin de errores. Tasas de convergencia: velocidad con la que una secuenciaconverge a su lmite. Para la secuencia xk 2 Rn que satisfaceque limk!1 xk = x, decimos que xk converge a x a la tasa q si:

    limk!1

    k xk+1 x kk xk x kq

  • el error: el problema central de la matemtica numrica(2)

    Stopping rules: Dado que no podemos lograr una precisininnita en los mtodos iterativos (o la PC se queda iterando porsiempre), se deben establecer reglas para detener la bsqueda.La idea general es detener la bsqueda cuando aadir nuevostrminos no cambia mucho el resultado. Aceptas xk+1, si:

    j xk xk+1 j1+ j xk j < ": (6)

    Evaluacin nal del error: Determinar la magnitud o laimportancia del error.

    Importancia! (a) bandas de error, (b) computar y vericar. Finalmente la prdida en terminos de precisin se compensacon la ventaja de obtener mayor realismo en el modelo.

    14

  • optimizacin y bsqueda de races

  • optimizacin

    Los problemas de optimizacin (de dimensin nita) son clavesen economa (ej: problema de la rma, problema deconsumidor, etc.) y en econometra (ej: maximizacin de lafuncin de verosimilitud, minimizacin de errores cuadrticos,etc.)

    Existe un vnculo cercano entre la optimizacin y la bsquedade races (soluciones a sistemas de ecuaciones).

    f(x) = 0: (7)

    donde la funcin f() es a menudo no-lineal. Esto se le conoce como hallar los ceros del sistema. Lo hacemos todo el tiempo - podemos expresar las condicionesde primer orden como funciones que deben ser cero al serevaluadas en el equilibrio.

    16

  • optimizacin (2)

    La idea clave en economa es que los agentes optimizan. El problema ms general puede expresarse como:

    minx

    f(x) s:t:

    g(x) = 0; h(x) 0:donde f : Rn !R es la funcin objetivo, g : Rn !Rm es elvector de m restricciones de igualdad y h : Rn !Rl es el vectorde l restricciones de desigualdad.

    Los mtodos de solucin numrica evalan el espacio dealternativas posibles, generando secuencias de solucin quedeben converger a la solucin verdadera. Debido a lainformacin que utilizan los clasicamos en:

    Mtodos de comparacin: evaluamos condiciones en diferentespuntos del espacio.

    Mtodos de gradiente: utilizan informacin de la gradiente delobjetivo y las restricciones en bsqueda de los mejores puntos.

    Mtodos de gradiente y curvatura. Requieren ms smoothness.17

  • minimizacin unidimensional

    El problema ms sencillo es la optimizacin escalar sinrestricciones:

    minx2R

    f(x);

    donde f : R! R. Bracketing: simple... atrapa al mnimo (local). f(a); f(b) > f(c)

    18

  • minimizacin unidimensional (2)

    Mtodo de Newton: Para funciones f(x) que son C2, podemosutilizar el mtodo de Newton. La idea es comenzar en un puntoa y buscar un polinomio cuadrtico p(x) que se aproxime a f(x)evaluada en el mismo punto al segundo orden:

    p(x) f(a) + f0(a)(x a) + f00(a)2 (x a)

    2: (8)

    si f00(a) > 0, entonces p es convexo. Luego minimizamos fencontrando el punto xm que minimiza p(x). El valor queminimiza el polinomio es xm = a f0(a)=f00(a): Si p(x) es unabuena aproximacin a f(x)! xm est ms cerca al mnimo def(x).

    Hacemos esto iterativamente:

    xn+1 = xn f0(xn

    f00(xn)(9)

    Idea: estamos buscando crticos... el punto jo puedes llevarnosal f0(xn) = 0... o no. Hay temas...

    19

  • optimizacin multidimensional

    Los problemas ms interesantes involucran ms variables. El problema genrico est dado por:

    minx

    f(x)

    para f : Rn !Rn. Algunos de estos mtodos requieren la continuidad de lafuncin f, otros son ms generales.

    Discutimos los mtodos ms sencillos (la lgica en los mscomplicados es similar).

    20

  • optimizacin multidimensional (2)

    Grid search: Denamos un grid (un michi) con 100 o 1000puntos a evaluar... evaluamos y elegimos el menor.

    Polytope: La idea es similar al bracketing, slo que somos msinteligentes eligiendo los nuevos puntos - evaluamos losvrtices y remplazamos uno por uno con vrtices asociados aun menor valor de la funcin objetivo. Nuestro simplex se vamoviendo (va bajando la colina). Halla mnimos locales.

    Newton multivariado: Tomamos ventaja de la continuidad delas funciones para analizar los gradientes y los hessianos.

    Direction sets: Mezclamos ambos tipos de algoritmo, utilizamoslos gradientes para denir una direccion en cada dimensin ybuscamos en esa direccion - tratamos el problema como variosproblemas unidimensionales. Aqu inclumos variantes de losmtodos de Newton (line, quasi, etc.)

    Mnimos cuadrados no lineales: algoritmos Gauss-Newton,Levenberg-Marquardt (clculo de Hessianos).

    21

  • aproximacin de funciones

  • introduccin a la aproximacin de funciones

    En muchos problemas computacionales requerimos aproximarfunciones. Nuestro objetivo:

    no conocemos f(x), pero tenemos alguna informacin sobre ella, o conocemos f(x), pero es demasiado complicada para trabajar conella.

    23

  • informacin disponible

    Tenemos: un set nito de derivadas

    normalmente evaluadas en un punto....

    un set nito de valores de la funcin. f1; : : : ; fm evaluada en m nodos, x1; : : : ; xm .

    24

  • clases de funciones de aproximacin

    1. polinomios esto aun nos da mucha exibilidad, ejemplos de polinomios de segundo orden

    a0 + a1x+ a2x2

    a0 + a1 ln(x) + a2(ln(x))2

    exp(a0 + a1 ln(x) + a2(ln(x))2)

    2. splines, e.g., interpolacin lineal.

    25

  • clases de funciones de aproximacin

    Los polinomios y los splines pueden ser expresados como:

    f(x) nX

    i=0iTi(x) (10)

    Ti(x): las funciones bases que denen la clase de funcionesusadas, e.j.: para los polinomios regulares:

    Ti(x) = xi: (11)

    i : los coecientes que hacen el pin down de una aproximacinparticular.

    26

  • reduciendo la dimensionalidad

    f(x) desconocida: objeto de dimensiones innitas. Pni=0 iTi(x) : n+ 1 elementos. *Truncamiento matemtico.

    27

  • procedimiento general

    Fijamos el orden de aproximacin n. Hallamos los coecientes 0; :::; n. Evaluamos la aproximacin. Si es necesario, incrementamos n para obtener una mejoraproximacin.

    28

  • weierstrass

    Denotemos por f : [a;b]! R a cualquier funcin de valoresreales. Para un n sucientemente largo, esta funcin esaproximada a un nivel arbitrariamente bueno por el polinomio:

    nXi=0

    ixi: (12)

    Entonces, podemos obtener una aproximacin precisa si: f no es un polinomio. f es discontinua.

    Cmo es esto cierto?

    29

  • weierstrass

    Denotemos por f : [a;b]! R a cualquier funcin de valoresreales. Para un n sucientemente largo, esta funcin esaproximada a un nivel arbitrariamente bueno por el polinomio:

    nXi=0

    ixi: (12)

    Entonces, podemos obtener una aproximacin precisa si: f no es un polinomio. f es discontinua.

    Cmo es esto cierto?

    29

  • cmo hallar los coeficientes de la aproximacin?

    Con derivadas: expansin de Taylor.

    Con un set de puntos (nodos), x0; : : : ; xm, y valores de la funcinf0; : : : ; fm

    proyectamos. Forma lagrangiana de escribir el polinomio (interpolacin).

    30

  • proyeccin

    Denotemos por:

    Y =

    264 0...m

    375 =266664T0(x0) T1(x0) : : : Tn(x0)T0(x1) T1(x1) : : : Tn(x1)

    ...... . . .

    ...T0(xm) T1(xm) : : : Tn(xm)

    377775entonces:

    Y X (13)

    Necesitamos m n. Sino el sistema no tiene solucin. Qu problema enfrentamos si n se incrementa?

    31

  • funciones de dimensionalidad alta

    Polinomio completo de segundo orden en x e y:X0i+j2

    ai;jxiyj (14)

    El polinomio producto-tensor de segundo orden en x e y estdado por:

    2Xi=0

    2Xi=0

    ai;jxiyj (15)

    32

  • completo vs. producto tensor

    el producto tensor hace la programacin ms fcil: un loop doble simple en lugar de la suma.

    el producto tensor tiene un orden mayor que n+ 1. El producto tensor de segundo order tiene elementos de cuartapotencia.

    Al menos localmente, los ordenes bajos son ms importantes)los polinomios completos pueden resultar ms ecientes.

    33

  • polinomios ortogonales

    Construyamos las funciones bases de tal forma que seanortogonales la una a la otra, e.j.:Z b

    aTi(x)Tj(x)w(x)dx = 0; 8i; j i 6= j: (16)

    Esto requiere de una funcin de pesos particular (densidad),w(x) y un rango sobre el cual las variables estn denidas [a;b].

    34

  • polinomios ortogonales de chebyshev

    [a;b] = [1; 1] yw(x) = 1

    (1 x2)1=2

    Qu pasa si la funcin de inters no esta denida en [1; 1].

    35

  • construyendo polinomios de chebyshev

    Las funciones bases de los polinomios de Chebyshev estandados por:

    Tc0(x) = 1Tc1(x) = xTci+1(x) = 2xTci (x) Tci1(x) i 1

    36

  • chebyshev vs. polinomios regulares

    Los polinomios de Chebyshev, i.e.,

    f(x) nX

    j=0ajTcj (x);

    pueden ser rescritos polinomios regulares, i.e.,

    f(x) nX

    j=0bjxj;

    37

  • nodos de chebyshev

    La funcin base de orden n tiene n soluciones para:

    Tcn(x) = 0;

    Estos son los n nodos de Chebyshev - en realidad es as comose obtienen los nodos de las funciones base.

    38

  • ortogonalidad discreta

    Evaluado en los nodos de Chebyshev, el polinomio deChebyshev satisface:

    nXi=1

    Tcj (xi)Tck(xi) = 0; para j 6= k: (17)

    entonces, si

    X =

    266664T0(x0) T1(x0) : : : Tn(x0)T0(x1) T1(x1) : : : Tn(x1)

    ...... . . .

    ...T0(xm) T1(xm) : : : Tn(xm)

    377775entonces, X0X es una matrix diagonal.

    39

  • convergencia uniforme

    Weierstrass) hay una buena aproximacin polinomial. Weierstrass; f(x) = limn!1 pn(x) para toda secuencia pn(x) Si los polinomios de Chebyshev son jados en sus nodos)garantizamos convergencia uniforme al polinomio!

    40

  • splines

    Los splines son otra forma de aproximar funciones a travs defunciones piece-wise, suaves en el punto en el que las partes seconecta.

    Insumos:1. n+ 1 nodos, x0; : : : ; xn.2. n+ 1 valores de la funcin, f(x0); : : : ; f(xn)

    los nodos son jos) los n+ 1 valores de la funcin son loscoecientes del spline.

    41

  • piece-wise lineal

    Para x 2 [xi; xi+1]:

    f(x) 1 x xixi+1 xi

    fi +

    x xixi+1 xi

    fi+1

    Esto es, una funcin lineal separada es tteada en cadaintervalo.

    Igual es mas fcil/mejor pensar en los coecientes de lafuncin de aproximacin como los n+ 1 valores de la funcin.

    42

  • piece-wise lineal vs. polinomial

    Ventaja: Preservacin de la forma. en particular monoticiidad y concavidad.

    Desventaja: No diferenciable... no es una buena aproximacinpara una funcin suave.

    43

  • splines de orden mayor

    Una de las favoritas: la cbica. !!! Los mismos insumos que en el spline lineal, i.e. n+ 1 valores dela funcin en n+ 1 nodos que pueden ser pensados como losn+ 1 coecientes que determinan la funcin de aproximacin.

    Ahora tteamos polinomios de tercer orden en cada uno de losintervalos.

    f(x) ai + bix+ cix2 + dix3 para x 2 [xi1; xi] : (18)

    44

  • condiciones del spline cbico: niveles

    Tenemos 2+ 2(n 1) condiciones para asegurarnos que losvalores de la funcin corresponden a los valores de la funcinen los nodos.

    Para los nodos interiores necesitamos que las aproximacionescbicas de los segmentos adyacentes nos den la respuestacorrecta. Por ejemplo:

    f1 = a1 + b1x1 + c1x21 + d1x31y (19)f1 = a2 + b2x1 + c2x21 + d2x31 (20)

    Para los dos valores extremos x0 y xn+1, solo tenemos una valorque debe jarse correctamente.

    45

  • condiciones del spline cbico: derivadas de primer orden

    Para asegurar diferenciabilidad en los nodos interioresnecesitamos:

    bixi + 2cixi + 3dix2i = bi+1xi + 2ci+1xi + 3di+1x2ipara xi 2 fx1; : : : ; xng;

    Lo que nos da n 1 condiciones.

    46

  • condiciones del spline cbico: derivadas de segundo orden

    Para asegurar que las segundas derivadas son iguales,necesitamos

    bi + 2ci + 6dixi = bi+1 + 2ci+1 + 6di+1xipara xi 2 fx1; : : : ; xn1g;

    Tenemos entonces 2+ 4(n 1) = 4n 2 condiciones para hallar4n incognitas.

    Nos faltan dos condiciones adicionales; e.j.: que las derivadasde segundo orden en los puntos extremos sean cero.

    47

  • aproximacin de funciones

    Los mtodos de aproximacin de funciones son sumamentetiles en el campo de mtodos numricos.

    Por ejemplo, podemos aproximar una funcin de valor o depoltica a travs de un nmero limitado de elementos(aproximacin lineal) o conectar puntos en los que hemosevaluado la funcin (recuperar la forma de una solucin global).

    En nuestras sesiones 3 y 4 haremos uso de estas herramientaspara resolver modelos macroeconmicos que requieren desoluciones globales.

    48

  • integracin numrica

  • integracin numrica

    La evaluacin numrica de una integral denida es uno de losproblemas hallados frecuentemente en la modelacineconmica.

    Ejemplos: si una rma paga un ujo continuo de dividendos, d(t), y la tasa deinters es r, el valor presente de los dividendos es

    R10 e

    rtd(t)dt. si una variable aleatoria X se distribuye N(0; 1), la esperanza def(X) est dada por: (2)1=2

    R11 f(x)e

    x2=2dx.El problema general de integracin numrica es conocido comocuadratura o cubatura:

    I =Z ba

    f(x)dx nXi=1

    wif(xi) =nXi=1

    wifi (21)

    donde xi son los nodos y wi son los pesos.

    50

  • tcnicas de cuadratura

    Dos versiones:

    Formulas Newton-Cotes Nodos equidistantes y la mejor eleccin de pesos wi.

    Cuadratura Gaussiana la mejor eleccin de nodos y pesos.

    51

  • tcnicas de monte carlo

    Pseudo: es la versin implementable del verdadero Monte Carlo.

    Cuasi: parece Monte Carlo, pero es algo distinto... debieron elegir mejorel nombre.

    52

  • newton-cotes: la idea detrs

    Valores de funciones en n nodos) podemos ttear unpolinomio de orden n 1 e integrar el polinomio aproximado.Z b

    af(x)dx

    Z ba

    P2(X)dx (22)

    resulta que esto puede ser estandarizado.

    53

  • regla de simpson para un intervalo (3 nodos)

    es una aproximacin piece-wise cuadrtica de f que utiliza losvalores de f en los puntos a y b y en el punto medio 12 (a+ b). Enel caso de 3 puntos.

    Z ba

    f(x)dx 13 f0 +

    43 f1 +

    13 f2b a

    6

    : (23)

    que puede generalizarse para multiples intervalos (ms nodos).

    54

  • regla de simpson en matlab

    Rutina de integracin en Matlab

    quad(@myfun;A;B)

    Este es un proceso iterativo que ajusta la longitud del intervalo(mirando a los cambios en las derivadas).

    55

  • cuadratura gaussiana

    Podemos hacerlo mejor? Esto es, obtener mejor precisin conla misma cantidad de nodos?

    Respuesta: S, si somos inteligentes seleccionando los nodos. Este es el punto de la cuadratura gaussiana.

    56

  • cuadratura gauss-legendre

    Con [a;b] [1; 1] siempre podemos lograrlo re-escalando

    Cuadratura: Z 11

    f(x)dx nXi=1

    wif(i) (24)

    Objetivo: Obtener una respuesta exacta si f(x) es un polinomiode orden 2n 1

    Con 5 nodos obtenemos una respuesta exacta aun si f(x) es unpolinomio de noveno orden.

    57

  • implementando la cuadratura gauss-legendre

    Toma n nodos con n pesos de un programa de computadora (otu tablita del Judd).

    i; i = 1; : : : ;n; wi; i = 1; : : : ;n: (25)

    Calcula los valores de la funcin en los n nodos, fi; i = 1; : : : ;n. La respuesta es igual a:

    nXi=1

    wifi (26)

    Cualquiera puede hacer esto. Cmo hace la computadora para obtener los nodos y pesos?

    58

  • 2n ecuaciones para nodos y pesos

    Para obtener la respuesta para f(x) = 1Z 11

    1dx =nXi=1

    wi1:

    Para obtener la respuesta para f(x) = xZ 11

    xdx =nXi=1

    wii:

    Para obtener la respuesta para f(x) = x2Z 11

    x2dx =nXi=1

    wi2i :

    etc...

    59

  • 2n ecuaciones para nodos y pesos

    Para obtener la respuesta para f(x) = xj, para j = 0; : : : ; 2n 1.Z 11

    xjdx =nXi=1

    wi ji (27)

    para j = 0; 1; : : : ; 2n 1. Este es un sistema de 2n ecuaciones y 2n incognitas.

    60

  • qu hemos obtenido hasta ahora?

    Por construccin obtuvimos la respuesta correcta para:

    f(x) = 1; f(x) = x; : : : ; f(x) = x2n1 (28)

    pero no es suciente para obtener la solucin correcta paracualquier polinomio.

    61

  • cuadratura gauss-hermite

    Supongamos que queremos aproximar:Z 11

    = f(x)ex2dx conPni=1 wif(i) (29) la funcin ex2 es la funcin de pesos. No es utilizada en laaproximacin pero es capturada por los coecientes wi.

    62

  • cuadratura gauss-hermite

    Podemos usar el mismo procedimiento para calcular los pesos ylos nodos. Resolvemos el sistema:Z 1

    inftyxjex2dx =

    nXi=1

    wi ji ; para j = 0; 1; : : : ; 2n 1: (30)

    Note que e2i no est en el lado derecho.

    63

  • implementando la cuadratura gauss-hermite

    Tomemos los n nodos, i; i = 1; : : : ;n, y n pesos, wi; i = 1; : : : ;n;de un programa de computadora.

    Calculamos los valores de la funcin en los n nodos,fi; i = 1; : : : ;n.

    La respuesta es igual a:nXi=1

    wifi; (31)

    64

  • la expectativa de una variable normalmente distribuida

    Cmo calculamos...

    E[h(y)] con y N(; 2)?

    Entonces, requerimos calcular:Z 11

    1p2

    h(y) exp (y )

    2

    22dy

    Desafortunadamente, esto no encaja exactamente con lafuncin de pesos Hermitianos...

    Aqu el cambio de variable nos ayuda.

    65

  • cambio de variables

    Si y = (x), entoncesZ ab

    g(y)dy =Z 1(b)1(a)

    g((x))0(x)dx

    Note que aadimos el Jacobiano.

    66

  • cambio de variables

    La transformacin que utilizamos aqu ser:

    x = y p2

    o y = p2x+

    67

  • cambio de variables

    E[h(y)] =Z 11

    1p2

    h(y) exp (y )

    2

    22dy

    =

    Z 11

    1p2

    h(p2x+ ) exp

    x2p2dx=

    Z 11

    1ph(p2x+ ) exp

    x2dx

    68

  • qu hacer en la prctica?

    Obtenemos los pesos de cuadratura Gauss-Hermite y sus nodosusando un algoritmo numrico (o la tabla en el Judd).

    Calculamos la aproximacin usando:

    E[h(y)] nXi=1

    1pwGHi h(

    p2GHi + )

    No se olviden de dividir por p!

    Genial e increiblemente simple, no?

    69

  • qu hacer en la prctica?

    Obtenemos los pesos de cuadratura Gauss-Hermite y sus nodosusando un algoritmo numrico (o la tabla en el Judd).

    Calculamos la aproximacin usando:

    E[h(y)] nXi=1

    1pwGHi h(

    p2GHi + )

    No se olviden de dividir por p! Genial e increiblemente simple, no?

    69

  • probemos el nuevo juguete...

    Abran el cdigo: Quadrature.m Puede observar la diferencia en el error y tiempos deprocesamiento.

    Cul es el problema?

    70

  • aplicacin 1: funcin inversa de la demanda

    Tomamos dos ejercicios sencillos, propuestos por Miranda &Fackler (2002) en el captulo 1.

    Pensemos en un mercado con una funcin de demanda conelasticidad constante:

    q = p0:2 (32)

    Es una funcin, dado que para cada precio p, hay una nicacantidad demanda.

    En este caso es fcil calcular el precio que limpia el mercado(basta una calculadora de mano).

    71

  • aplicacin 1: funcin inversa de la demanda (2)

    Ahora imaginemos un funcin de demanda ligeramente distinta:

    q = 0:5p0:2+ 0:5p0:5 (33)

    Esta funcin puede motivarse como una rma con unademanda domstica y una externa.

    La funcin inversa de la demanda (mapa de cantidades aprecios) est bien denida, es continua y estrictamentedecreciente.

    Bsqueda de races: L1_Exercise_1.m

    72

  • aplicacin 2: un simple modelo de un producto agrcola

    En este mercado, las decisiones de oferta son realizadas antesque la rentabilidad por hectrea y el precio es conocido.

    Los agricultores usan el precio esperado:

    a = 0:5+ 0:5Ep (34)

    Luego de la siembra, una rentabilidad aleatoria ~y se realiza,obteniendo como cantidad:

    q = a~y (35)

    que es vendida al precio de mercado:

    p = 3 2q (36)

    Asumiremos que ~y N (1; 0:1).

    73

  • aplicacin 2: un simple modelo de un producto agrcola (2)

    Resolviendo para el equilibrio de expectativas racionalesobtenemos:

    p = 3 2(0:5+ 0:5Ep)~y (37)

    tomando expectativas en ambos lados obtenemos:

    Ep = 3 2(0:5+ 0:5Ep) (38)

    Obtenemos Ep = 1 y a = 1. Asumamos ahora que el gobierno implementa un programa deapoyo, que garantiza un precio mnimo de 1.

    El productor ahora recibir max(p; 1)

    74

  • aplicacin 2: un simple modelo de un producto agrcola (3)

    Con este subsidio ahora:

    a = 0:5+ 0:5Emax(p; 1) (39)

    Intentemos ahora hallar el equilibrio de expectativas racionales:

    p = 3 2[0:5+ 0:5max(p; 1)]~y (40)

    Tomando expectativas en ambos lados:

    Ep = 3 2[0:5+ 0:5E[max(p; 1)] (41)

    Esta claro que no podemos calcular la funcin de expectativassobre la funcin max (no es lineal.)

    En este problema, la dicultad es tener que evaluar laesperanza truncada de una distribucin continua .

    75

  • aplicacin 2: un enfoque alternativo

    Podemos aproximar esta funcin y discretizar el choque. Cuadratura y algortimo de punto jo: L1_Exercise_2.m

    76

  • conclusiones

  • conclusiones

    Hemos revisado algunos conceptos elementales de matemticacomputacional.

    Estudiamos la lgica detrs de diversos algoritmos de bsquedade races y optmizacin.

    Discutimos respecto a las formas de aproximar funciones, vapolinomios o interpolacin (splines).

    Finalmente revisamos diversas tcnicas de integracinnumrica de funciones.

    En las siguiente sesiones haremos uso de estos conceptos enlas diversas tcnicas de solucin numrica que estudiaremos.

    78

  • Preguntas?

    79

    MotivacionConceptos elementales en ComputacinOptimizacin y Bsqueda de RacesAproximacin de funcionesIntroduccinAproximaciones polinomialesSplinesAproximacin de Funciones: Conclusiones

    Integracin NumricaIntroduccinNewton-CotesCuadratura Gaussiana

    Conclusiones