07-Técnicas de Optimización

download 07-Técnicas de Optimización

of 27

description

Se presenta un documento académico para comprender el concepto de optimización en una variable y multivariable.

Transcript of 07-Técnicas de Optimización

U7 Tcnicas de Optimizacin Clsica

1

TCNICAS DE OPTIMIZACIN CLSICAINTRODUCCINLas tcnicas de optimizacin son herramientas matemticas que tienen como objetivo la maximizacin de beneficios, digamos de la eficiencia de un proceso o la minimizacin de esfuerzos o prdidas, digamos de las prdidas de un material para elaborar un producto. Dado que la medida de un esfuerzo requerido, medida de prdidas o medida de beneficios puede expresarse como una funcin (funcin objetivo) de varias variables, el proceso de optimizacin se puede definir como el proceso de bsqueda de aquellas variables que minimizan o maximizan el valor de la funcin. El proceso de optimizacin con la bsqueda de la minimizacin o maximizacin de una funcin objetivo se trata del mismo problema, simplemente con el negativo de la funcin se obtiene el mximo o con la funcin se obtiene el mnimo; visualizar la siguiente figura:

El parmetro o variable que minimiza o maximiza la funcin objetivo es la misma para cualquiera de los casos; en x=x* se obtiene el mnimo de la funcin o el mximo de la funcin negativa.

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

2

Adicionalmente a esta consideracin, las siguientes operaciones sobre la funcin objetivo no modificarn la solucin ptima de la variable encontrada: 1. Multiplicacin o divisin de la funcin objetivo por una constante positiva 2. Suma o resta de una constante a la funcin objetivo Visualizar la siguiente figura:

Se puede decir que no existe un solo mtodo para resolver todos los problemas de optimizacin de forma eficiente, sino que se han desarrollado una gran cantidad de mtodos de optimizacin para resolver diferentes tipos de problemas. Existen tcnicas de optimizacin que se les conoce como tcnicas de programacin matemtica o determinsticas, tcnicas estocsticas, tcnicas estadsticas y tcnicas modernas. La siguiente tabla muestra algunas de las tcnicas de optimizacin. Las tcnicas determinsticas son muy tiles para encontrar el mnimo de una funcin objetivo de varias variables bajo una serie de restricciones pre-establecidas siendo las restricciones y las funciones, lineales o no lineales. Las tcnicas estocsticas se pueden emplear para analizar problemas descritos por un conjunto de variables aleatorias que tienen una funcin de distribucin de probabilidad.

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

3

Las tcnicas estadsticas permiten analizar los problemas con datos experimentales y la construccin de modelos empricos para obtener la representacin ms adecuada de la situacin fsica que se quiere optimizar. Las tcnicas modernas de optimizacin son algoritmos poderosos que permiten resolver problemas tan complejos como el caso de movimiento de masas o tendencias, entre otras, que se adecuaron para ser aplicados a problemas de ingeniera.

Las aplicaciones de la optimizacin matemtica pueden ser interminables, pero se enumeran solo algunas en el campo de la ingeniera elctrica: Maximizacin de generacin elctrica con minimizacin de costos por insumos. Planeacin ptima y control de produccin y sistemas Diseo ptimo de equipo elctrico, mecnico, etc. Determinacin de ruta crtica para restablecimiento por colapso de V.Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

4

EL PROBLEMA GENERAL DE OPTIMIZACINEl problema de optimizacin clsica se establece como:

de la funcin objetivo f (X ) , sujeto a cumplir las funciones de restriccin dadas por restricciones de desigualdad g j (X ) 0 igualdad l j (X ) 0 Donde: X contiene aquellos parmetros que se estn buscando y se le conoce como el vector de diseo; X puede estar formado por un solo parmetro y el problema de optimizacin se centrar sobre la bsqueda de ese parmetro o puede formarse por varios parmetros en donde la bsqueda ser multiparamtrica. La funcin f(X) es la funcin objetivo y representa a la variable que quiere optimizarse, como puede ser la funcin del error al comparar tendencias o curvas, la funcin minimizacin de prdidas, etc. La funcin o grupo de funciones g(X) es la funcin de restricciones de desigualdad que hace de la bsqueda de parmetros quede acotada por esta o estas funciones. La funcin o grupo de funciones l(X) es la funcin de restricciones de igualdad que tambin acota la bsqueda de parmetros.

Encontrar el vector de parmetros X = [x1

x 2 L x n ] tal que minimice el valorT

j = 1,2, K, m y/o restricciones de

j = 1,2,K, p .

Cuando el problema de optimizacin contiene al menos una funcin de restriccin, entonces se le conoce como problema de optimizacin restringida. Si no se cuenta con funciones de restriccin entonces se le conoce como problema de optimizacin no restringida.

El diseo de la funcin objetivo siempre deber estar en funcin de lo que se quiere obtener, es decir, si se quiere saber el valor ptimo de un parmetro dada una serie de mediciones experimentales, entonces la funcin objetivo debe contener forzosamente al parmetro que se busca. Las funciones de restriccin van en el mismo sentido, pero se trata de un acotamiento de bsqueda del parmetro a una serie de restricciones, como por ejemplo que el parmetro sea positivo pero menor que algn lmite superior, etc.Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

5

Otra clasificacin importante del problema de optimizacin clsico se basa en la naturaleza de la expresin de la funcin objetivo y de sus restricciones. De acuerdo a esta clasificacin, los problemas de optimizacin se pueden clasificar como problemas de optimizacin lineal, no-lineal, geomtrica y cuadrtica. Los mtodos de optimizacin clsica se basan principalmente en la bsqueda de la solucin ms ptima de funciones objetivo continuas y diferenciables. En este sentido, estos mtodos basados en clculo diferencial presentarn limitaciones ante funciones objetivo que son discontinuas y/o no diferenciables. Sin embargo, la comprensin de estos mtodos permite entender ms fcilmente el funcionamiento de los mtodos de optimizacin basados en tcnicas estocsticas, estadsticas y modernas.

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

6

PRINCIPIO DE OPTIMIZACINEl problema de optimizacin matemtica fue abordado por Karl Friedrich Gauss y publicado en 1809 quin a partir de datos experimentales sobre la rbita de un asteroide, Gauss con su propuesta estim o predijo con buena exactitud la rbita de este asteroide para volver a encontrarlo en al siguiente ao. La idea bsica del mtodo de Gauss es tomar valores experimentales y compararlos contra una funcin propuesta para ajustarla a los valores experimentales, de tal forma que se busca minimizar el error entre ambos datos, es decir, minimizar el error o la diferencia entre los datos experimentales y los datos arrojados por la funcin propuesta. Entonces, en este problema se realiza la bsqueda de los parmetros de la funcin propuesta tal que el error resultante sea minimizado. A partir de esta concepcin de bsqueda de parmetros, se origina el problema de optimizacin y la diferencia de los mtodos clsicos giran en torno de esta bsqueda.

Enseguida se exponen dos ejemplos de estimacin utilizando herramientas comunes como el promedio de un conjunto de datos y la solucin de sistemas sobredeterminados con lgebra lineal.

Ejemplo 1: Se trata de la determinacin del valor de una resistencia a partir de las mediciones de voltaje y corriente realizando 10 mediciones o muestras. a. Se aplica un voltaje constante y se mide corriente. Voltaje aplicado V=10 volts. Corriente medida tomando 10 muestras1.9515 2.0247 1.9945 2.0432 1.9966 1.9919 2.0346 2.0025 1.9703 2.0172

Solucin 1: promediando Es comn obtener el promedio de las mediciones de corriente y despus usar ley de Ohm. Promedio de corriente medida Ipromedio = 2.0027 Amps Resistencia = V/Ipromedio = 10/2.0027 = 4.9933Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

7

Solucin 2: como sistema sobredeterminado Otra forma que es ms formal trata con el uso de algebra lineal para un sistema sobredeterminado, considerando que la ecuacin de voltajes es: V = I*R se tiene lo siguiente V1 = I 1 * R V2 = I 2 * R V3 = I 3 * R M VN = I N * R matricialmente V1 I 1 V I 2 2 V3 = I 3 [R ] en forma compacta v = iR M M V N I N

Se despeja el vector del parmetro R como sigue: v = iR iTv = iTiR donde iT es la transpuesta del vector corriente i

se despeja R: R = (iTi)-1 iTv Se procede a calcular R: iTi=40.1152 (iTi)-1=0.0249 iTv =200.2698 R=4.9924

Ejemplo 2: Se trata de determinar la ecuacin de comportamiento de una serie de datos que se muestran en la grfica de t vs f(t). Ntese que no se puede emplear la premediacin de datos en este problema. Se emplea la solucin de sistemas sobredeterminados.

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

8

Para emplear la solucin de sistemas sobredeterminados se deben proponer funciones que se aproximen al comportamiento visto en la grfica. Se proponen las siguientes funciones: 1- ecuacin de la recta y(t) = m*t + b 2- ecuacin cuadrtica y(t) = a*t2 + b*t + c 3- ecuacin cbica y(t) = a*t3 + b*t2 + c*t + d 4- ecuacin cuarta y(t) = a*t4 + b*t3 + c*t2 + d*t + e El nmero de datos N es de 10,001 datos, por lo que se trabaja todo en un programa computacional. (Matlab)

Aproximacin por ec. de la recta y1 = t1 * m + b y2 = t2 * m + b y3 = t 3 * m + b M yN = tN * m + b matricialmente y1 t1 y t 2 2 y3 = t 3 M M y N t N

1 1 m 1 en forma compacta Y=T* b 1 1

Se despeja el vector del parmetro como sigue: Y=T* TT*Y = TT*T* donde TT es la transpuesta de la matriz T

se despeja : = (TT*T)-1 *TT*Y Se procede a calcular :

333383.335 50005 TT * T = 10001 50005 5584533.4008 TT * Y = 750125.0050 22 = 34.996m=22.000 b=-34.996

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

9

Aproximacin por ec. cuadrtica y(t) = a*t2 + b*t + c y1 = a * t1 + b * t1 + c2

y2 = a * t 2 + b * t2 + c2

y3 = a * t 3 + b * t 3 + c2

matricialmente

M yN = a * tN + b * tN + c2

y1 t1 2 t1 y 2 t 2 t2 2 y3 = t 3 2 t 3 M M M y N t 2 t N N

1 1 a 1 b M c 1

en forma compacta Y=T* Se despeja el vector del parmetro como sigue: Y=T* TT*Y = TT*T* donde TT es la transpuesta de la matriz T

se despeja : = (TT*T)-1 *TT*Y Se procede a calcular : a=3.000 b=-8.000 c=14.999

Aproximacin por ec. cbica y(t) = a*t3 + b*t2 + c*t + d

y1 = a * t1 + b * t1 + c * t1 + d3 2

y2 = a * t 2 + b * t 2 + c * t 2 + d3 2

y3 = a * t 3 + b * t 3 + c * t 3 + d3 2

matricialmente

M yN = a * tN + b * tN + c * tN + d3 2

y1 t13 t1 2 t1 y 3 2 t 2 t2 t2 2 y3 = t 3 3 t 3 2 t 3 M M M M y N t 3 t 2 t N N N

1 a 1 b 1 c M d 1

en forma compacta Y=T*

Se despeja el vector del parmetro como sigue: Y=T* TT*Y = TT*T* donde TT es la transpuesta de la matriz T

se despeja : = (TT*T)-1 *TT*Y Se procede a calcular : a=0.100 b=1.500 c=-2.000 d=10.000

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

10

Aproximacin por ec. cuarta y(t) = a*t4 + b*t3 + c*t2 + d*t + e

y1 = a * t1 + b * t1 + c * t1 + d * t1 + e4 3 2

y2 = a * t 2 + b * t 2 + c * t 2 + d * t 2 + e4 3 2

y3 = a * t 3 + b * t 3 + c * t 3 + d * t 3 + e4 3 2

matricialmente

M yN = a * tN + b *tN + c * tN + d * tN + e4 3 2

y1 t1 4 t13 t1 2 t1 y 4 3 2 t 2 t2 t2 t2 2 y3 = t 3 4 t 3 3 t 3 2 t 3 M M M M M y N t 4 t 3 t 2 t N N N N

1 a 1 b 1 c M d 1 e

en forma compacta Y=T*

Se despeja el vector del parmetro como sigue: Y=T* TT*Y = TT*T* donde TT es la transpuesta de la matriz T

se despeja : = (TT*T)-1 *TT*Y Se procede a calcular : a=0 b=0.100 c=1.500 d=-2.000 e=10.000

Vase que en la ec. cuarta el trmino que multiplica a t4 es cero, y queda idntica a la ec. cbica.

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

11

Una de las tcnicas clsicas de optimizacin es la minimizacin del error cuadrtico dado por la diferencia entre la funcin o datos reales o medidos y la funcin o datos estimados. Esta funcin debe ser continua y diferenciable para poder aplicarse porque utiliza como base el clculo diferencial para encontrar el mnimo de una funcin.

Antes de entrar al problema de optimizacin se puntualiza lo siguiente: El problema de optimizacin es buscar la mejor solucin a algo y matemticamente se representa con la minimizacin de una funcin costo o funcin objetivo. Entonces, el problema de estimacin puede presentar algunos cuestionamientos como:

El parmetro encontrado es aquel que me minimiza la funcin objetivo en forma global?, O en forma local? Existir algn otro parmetro que me resulte en una funcin costo todava menor?

Estos cuestionamientos dan lugar a que las tcnicas de optimizacin sean variadas y por ello sea un campo en constante desarrollo.

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

12

OPTIMIZACIN DE UNA VARIABLE Se dice que una funcin de una variable f() tiene un mnimo local o relativo en =* si f(*) f(* *). Sera un mximo local si f(*) f(* *). Se dice que una funcin de una variable f() tiene un mnimo global o absoluto en =* si f(*) f() para toda de cualquier valor. Sera un mximo global si f(*) f() El criterio para la bsqueda del mnimo de una funcin de una variable es establecer un rango de bsqueda tal que * minimice f().

Ejemplo 3: Determinar los valores mximo y mnimo de la siguiente funcin:

f ( x) = 12 x 5 45 x 4 + 40 x 3 + 5

Solucin. Se aplica la primera derivada a f(x) y se iguala a cero para buscar sus races, las cuales indican mximos o mnimos de la funcin original

f ( x) = 60 x 4 180 x 3 + 120 x 2 = 0 , f ( x ) = 0

para

x = 0 x =1 x = 2

Con la segunda derivada se conoce si cada raz presenta un mximo, mnimo o punto de inflexin:

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

13

f ( x ) = 240 x 3 540 x 2 + 240 x signo 0 punto de inflexin x=0 f (0) = 0 x = 1 f (1) = 60 signo (-) mximo relativo x = 2 f (2) = 240 signo ( + ) mnimo relativo

As como analticamente se solucion la bsqueda del mximo o mnimo de la funcin propuesta, algunas tcnicas de optimizacin clsica emplea el clculo diferencial para minimizar la funcin que representa el error. Es comn que las tcnicas de optimizacin se utilicen solamente con datos provenientes de mediciones. Siendo as, es necesario proponer una funcin de minimizacin a partir de los datos obtenidos, es decir, se propone una funcin parametrizada y terica para que sus parmetros se ajusten al comportamiento de las mediciones.

Ejemplo 4: Considerar los datos del problema 1 medicin de corrientes y voltaje en una resistencia desconocida. Encontrar el valor del parmetro de la funcin terica dada por la ley de Ohm la cual se propone para minimizar el error entre datos medidos y respuesta de la funcin terica. La funcin de error es una funcin cuadrtica formada por la diferencia cuadrtica entre medicin y respuesta.Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

14

Se utiliza el mtodo de Newton para bsqueda del mnimo de una funcin. Esta bsqueda se hace con la siguiente aproximacin:

n +1 = n

f ( n ) f ( n )

Dado que se requiere de la primera y segunda derivada de la funcin de error, en este caso que se cuenta con mediciones es necesario calcular las derivadas por aproximaciones o diferencias finitas centrales.

f ( n ) =

f ( n + ) f ( n ) 2

La segunda derivada por diferencias finitas centrales se calcula

f ( n ) =

f ( n + 2 ) + f ( n 2 ) 2 f ( n ) 4 2

Pero una buena aproximacin se tiene conf ( n ) = f ( n + ) + f ( n ) 2 f ( n ) 2

Con este ltimo clculo de doble derivada de la funcin se aprovechan los clculos de las funciones del gradiente o primera derivada. El mtodo de Newton requiere de valores de arranque en los parmetros para calcular derivadas y parmetros El clculo iterativo ser programado en MatlabFundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

15

EXPLICACIN DE PLANTEAMIENTO: Antes de entrar en el problema matemtico, se debe plantear el problema: Para encontrar el valor de la resistencia dada la corriente y el voltaje se usa la ley de Ohm, R = V/I. Entonces, el problema se plantea de la siguiente manera: i) Al sistema se le aplica una seal de voltaje como entrada y la respuesta es la corriente, entonces se propone una ecuacin a partir de la ley de Ohm para calcular la corriente dado un voltaje de entrada conocido y un valor de resistencia aproximado. De esta manera se trataran de ajustar la corriente medida y la corriente simulada con la funcin propuesta. a. Ecuacin propuesta para calcular corrientes: Corriente estimada = Voltaje medido / Resistencia desconocida, esto es Iestimada=Vmedido/Rdesconocida ii) La comparacin o diferencia entre corrientes medida y estimada debe originar la funcin objetivo, que es la funcin a minimizar. De esta manera se propone minimizar el error cuadrtico para obtener siempre diferencias positivas y por otro lado emplear la tcnica de bsqueda de races de Newton. Esta tcnica emplea la definicin de mximos y mnimos de una funcin cuadrtica, as como el clculo del gradiente para tener la direccin de bsqueda. a. F cos to(R ) =

1 (I medida I estimada (R ))2 = 1 err 2 2 2

2 (F cos to(R )) = 1 (I medida I estimada (R ))2 = 1 I medida V = 0 R R 2 R R 2 V b. 0 = 2 * R 3 (I medida R V ) 0 = I medida R V bsqueda

{I medida R V } = I medida (+ ) Mnimo (F cos to(R )) = R R R

c. Como se trata de un sistema discreto con un nmero N de datos se emplea la sumatoria para calcular la funcin de costo:V (k ) medida 1 N i. F cos to(R ) = k =1 I (k ) medida 2 R 2

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

16

ii. G = F cos to(R ) =

{F cos to(R )} = lim0 F cos to(R + R ) F cos to(R R ) R R 2R El clculo del parmetro R se hace con el mtodo de Newton: Rk +1 = Rk H k1Gk = Rk Rk H = F cos to(R ) =d. Clculos numricos en MATLAB: i. Se propone un valor inicial de resistencia: R=0.1. ii. Se realiza un proceso iterativo hasta que el valor de R converja, seleccionando un criterio de error. 1. Calcular Fcosto 2. Calcular gradiente G (1er derivada) 3. Calcular hessiano H (2da derivada) 4. Calcular incremento R = H-1G 5. Calcular nuevo valor de Rk+1 6. Calcular criterio de convergencia 7. Si no cumple, se repiten pasos 1 a 7.

{F cos to(R )} = lim0 F cos to(R + R ) F cos to(R R ) R 2R R

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

17

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

18

OPTIMIZACIN MULTIVARIABLE La optimizacin clsica multivariable trata con funciones objetivo con ms de una variable. Se trata de que las n variables de inters minimicen la funcin de minimizacin. Este tipo de optimizacin clsica tiene el mismo principio que la univariable; hace uso de la teora del clculo para la bsqueda del mnimo de una funcin. En esta categora existen varios algoritmos entre los cuales estn, Newton, Gauss-Newton, Steepest Descent, Powell, Levenberg-Marquardt, etc. La diferencia entre estos algoritmos est en el clculo de la segunda derivada, la cual se hace complicada. El clculo de la primera derivada de la funcin costo se le conoce como gradiente y se realiza por cada una de las variables que se desean minimizar.

El clculo de la segunda derivada de la funcin costo se realiza con respecto de un par de variables, o puede verse como la derivada con respecto de todas las variables de la derivada de una funcin de la siguiente forma:

Lo siguiente se cumple para la matriz Hessiana, hacindola una matriz simtrica y generalmente definida positiva:

Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

19

Ejemplo 5: Considerar los datos generados por una funcin desconocida y encontrar los parmetros de la funcin terica propuesta para minimizar el error entre datos medidos y respuesta de la funcin terica. La funcin de error es una funcin cuadrtica formada por la diferencia cuadrtica entre medicin y respuesta. PROPUESTA: Se generan datos medidos con una funcin desconocida para simular algn proceso en Mathcad. La siguiente grfica son los datos medidos: Rango de x es: (-0.5 a 2.5) con incrementos de 0.001 Rango de f(x) es: (1.5 a 13) Los datos se envan a Matlab empleando un archivo de texto con datos de x,f(x). A estos les llamaremos Xmedida, Ymedida

SOLUCIN Dicho comportamiento se visualiza como una recta perturbada por oscilaciones. Se propone ajustar los datos con la funcin terica de la recta, esta es y = mx+b. A la respuesta de esta funcin le llamaremos Yestimada. El valor de x de esta funcin terica proviene de la Xmedida con el fin de reproducir la Ymedida con la respuesta de la funcin terica.Fundamentos de Ingeniera Elctrica Posgrado en Ingeniera Elctrica del Instituto Tecnolgico de La Laguna

U7 Tcnicas de Optimizacin Clsica

20

Se propone la funcin de minimizacin, haciendo que el error cuadrtico entre datos medidos y estimados sea mnimo, esto es:

F cos to( ) = m Donde = b

N 1 N (Ymedida _ k Yestimada _ k )2 = 1 (Ymedida _ k (m * Xmedida + b))2 2 k =1 2 k =1

Enseguida se programan dos algoritmos en Matlab; uno considera solo la direccin del gradiente para actualizar los parmetros de bsqueda y el otro considera al gradiente y la hessiana forzada con elementos fuera de la diagonal igual a cero. Para ambos casos aplica lo siguiente: Parmetros iniciales: m=0, b=0 Criterio de convergencia: err